0% encontró este documento útil (0 votos)
55 vistas57 páginas

TEMA3

El documento detalla el concepto de computación en la nube, sus características, modelos de servicio (IaaS, PaaS, SaaS) y sus ventajas y desventajas. También aborda el edge computing, su definición, características y aplicaciones en diversos campos como IoT, vehículos autónomos y salud. Se enfatiza la importancia de la escalabilidad, accesibilidad y seguridad en ambos modelos de computación.

Cargado por

gavi341.9
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
55 vistas57 páginas

TEMA3

El documento detalla el concepto de computación en la nube, sus características, modelos de servicio (IaaS, PaaS, SaaS) y sus ventajas y desventajas. También aborda el edge computing, su definición, características y aplicaciones en diversos campos como IoT, vehículos autónomos y salud. Se enfatiza la importancia de la escalabilidad, accesibilidad y seguridad en ambos modelos de computación.

Cargado por

gavi341.9
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

8/11/24, 17:56 Tema 3.

Poner nombre

Tema 3. Computación, ciberseguridad y análisis de datos

Gerd Altman. Computación en la nube (Pixabay)

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 1/57
8/11/24, 17:56 Tema 3. Poner nombre

3.1 Cloud/Nube: Niveles y funciones

Definición de cloud computing

Cloud Computing, o computación en la nube, es un modelo de servicio que permite el acceso bajo demanda a recursos informáticos a través
de internet. Estos recursos pueden incluir servidores, almacenamiento, bases de datos, redes, software, análisis y más. En lugar de comprar
y mantener hardware y software físico, las empresas y los usuarios individuales pueden utilizar recursos remotos proporcionados por un
proveedor de servicios en la nube.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 2/57
8/11/24, 17:56 Tema 3. Poner nombre

Gerd Altmann. Computación en la nube (Pixabay)

1. Características clave del cloud computing

Acceso Remoto: los usuarios pueden acceder a los servicios y recursos desde cualquier lugar y en cualquier momento a través
de una conexión a internet, utilizando diversos dispositivos (ordenadores, tablets, smartphones).
Escalabilidad: permite escalar recursos según las necesidades. Por ejemplo, una empresa puede aumentar o reducir su
capacidad de almacenamiento o procesamiento de manera flexible, pagando solo por lo que utiliza.
Pago por Uso: los usuarios pagan solo por los recursos que consumen, sin necesidad de realizar grandes inversiones iniciales en
infraestructura.
Automatización y gestión: las tareas de mantenimiento, como actualizaciones de software y gestión de la seguridad, suelen
estar automatizadas y gestionadas por el proveedor de servicios en la nube.
Colaboración: facilita la colaboración, permitiendo que varios usuarios trabajen juntos en proyectos y compartan información de
manera eficiente.

2. Modelos de servicio de cloud computing

IaaS (Infrastructure as a Service): proporciona infraestructura de TI básica, como servidores, almacenamiento y redes.
Ejemplos: Amazon Web Services (AWS), Microsoft Azure.
PaaS (Platform as a Service): ofrece una plataforma que permite a los desarrolladores crear, desplegar y gestionar aplicaciones
sin preocuparse por la infraestructura subyacente. Ejemplos: Google App Engine, Heroku.
SaaS (Software as a Service): proporciona software y aplicaciones a través de internet. Los usuarios acceden al software a
través de un navegador web sin necesidad de instalarlo localmente. Ejemplos: Google Workspace, Microsoft 365.

3. Ventajas del cloud computing

Reducción de Costos: elimina la necesidad de adquirir hardware costoso y permite una gestión más eficiente de los recursos.
Flexibilidad y Movilidad: acceso a recursos y servicios desde cualquier lugar con conexión a internet.
Innovación: facilita el desarrollo y la implementación de nuevas aplicaciones y servicios de manera rápida y eficiente.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 3/57
8/11/24, 17:56 Tema 3. Poner nombre

4. Desventajas y consideraciones

Seguridad y Privacidad: almacenar datos en la nube puede implicar riesgos de seguridad y privacidad, por lo que es crucial
evaluar las medidas de seguridad del proveedor.
Dependencia de la Conectividad: requiere una conexión a internet confiable para acceder a los servicios.
Riesgo de Dependencia del Proveedor: el uso de un proveedor específico puede generar dependencia, lo que podría ser
problemático si se desea cambiar de proveedor en el futuro.

Niveles del cloud computing

En el contexto de cloud computing (computación en la nube), los "niveles" o "modelos de servicio" se refieren a diferentes capas o enfoques
en los que se pueden ofrecer los servicios en la nube. Los tres niveles principales son IaaS (Infrastructure as a Service), PaaS (Platform as
a Service) y SaaS (Software as a Service). Cada uno de estos niveles proporciona un conjunto diferente de recursos y servicios.

Definición Características Ejemplos

Amazon Web Services (AWS) EC2


Control total: los usuarios tienen un control total proporciona instancias de servidores
IaaS es el nivel más básico
sobre el sistema operativo, aplicaciones y virtuales.
de cloud computing.
almacenamiento. Microsoft Azure: ofrece una gama de
1. IaaS Proporciona infraestructura
Escalabilidad: permite escalar recursos de manera servicios IaaS como máquinas
(Infrastructure de TI básica como servidores
flexible según la demanda. virtuales y almacenamiento.
as a Service) virtuales, almacenamiento,
Pago por uso: los usuarios pagan solo por los
redes y sistemas operativos
recursos utilizados, como la capacidad de Google Cloud Compute Engine
en un entorno virtualizado. proporciona recursos de computación
almacenamiento o el tiempo de uso del servidor
escalables.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 4/57
8/11/24, 17:56 Tema 3. Poner nombre

Facilidad de desarrollo: proporciona herramientas Google App Engine: una plataforma


PaaS proporciona una de desarrollo, bases de datos, middleware, y para desarrollar y alojar aplicaciones
web en Google Cloud.
plataforma que permite a los sistemas operativos, lo que simplifica el proceso de
Heroku: plataforma basada en la nube
2. PaaS desarrolladores crear, probar, desarrollo de aplicaciones.
para construir, ejecutar y opera
(Platform as a desplegar y gestionar Automatización: automatiza tareas como la
aplicaciones.
Service) aplicaciones sin preocuparse administración de servidores, el equilibrio de carga
Microsoft Azure App Services
por la infraestructura y la escalabilidad.
permite a los desarrolladores construi
subyacente. Soporte para desarrollo colaborativo: facilita la y desplegar aplicaciones web y
colaboración entre equipos de desarrollo. móviles.

SaaS es el nivel más alto de


cloud computing y Acceso web: los usuarios pueden acceder a las Google Workspace: conjunto de
proporciona software y aplicaciones desde cualquier lugar con conexión a herramientas de productividad como
aplicaciones completas a internet. Gmail, Google Docs y Google Drive.
3. SaaS través de internet. Los Gestión y mantenimiento: el proveedor de Microsoft 365: ofrece aplicaciones
(Software as a usuarios acceden a las servicios se encarga del mantenimiento, como Word, Excel, y PowerPoint en la
Service) aplicaciones a través de un actualizaciones y seguridad del software. nube.
navegador web sin necesidad Modelo de suscripción: los usuarios suelen pagar Salesforce: plataforma CRM (gestión
de instalar o mantener una suscripción mensual o anual por el uso del de relaciones con clientes) basada en
software en sus dispositivos software. la nube.
locales.

Funciones y beneficios del cloud computing

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 5/57
8/11/24, 17:56 Tema 3. Poner nombre

El cloud computing (computación en la nube) ofrece una amplia gama de funciones y beneficios que han transformado cómo las empresas y
los usuarios individuales gestionan, almacenan y procesan datos. A continuación, se detallan las principales funciones y beneficios del cloud
computing:

Pete Linforth. Big Data (Pixabay)

Funciones del Cloud Computing

1. Almacenamiento de datos:

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 6/57
8/11/24, 17:56 Tema 3. Poner nombre

Proporciona espacio para almacenar grandes volúmenes de datos de manera segura en servidores remotos, accesibles desde
cualquier lugar con una conexión a internet.

2. Procesamiento de datos:
Permite procesar grandes cantidades de datos en la nube utilizando recursos computacionales escalables, lo que es ideal para
tareas intensivas en datos como análisis de big data, simulaciones y modelado.

3. Desarrollo y pruebas de software:


Ofrece plataformas y entornos de desarrollo (PaaS) que permiten a los desarrolladores crear, probar y desplegar aplicaciones
rápidamente sin necesidad de gestionar la infraestructura subyacente.

4. Servicios de hosting:
Permite alojar sitios web, aplicaciones y servicios en la nube, ofreciendo alta disponibilidad, escalabilidad y gestión simplificada.

5. Copia de seguridad y recuperación:


Proporciona soluciones automáticas de copia de seguridad y recuperación ante desastres, asegurando que los datos estén
protegidos y accesibles incluso en caso de fallos del sistema o pérdidas de datos.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 7/57
8/11/24, 17:56 Tema 3. Poner nombre

6. Colaboración en tiempo real:


Facilita la colaboración entre equipos mediante herramientas en la nube que permiten trabajar en documentos, proyectos y
aplicaciones de manera conjunta y en tiempo real, independientemente de la ubicación geográfica de los miembros del equipo.

7. Distribución de contenidos (CDN):


Utiliza redes de distribución de contenidos para entregar datos, videos y aplicaciones de forma rápida y eficiente a usuarios en
diferentes partes del mundo, mejorando el rendimiento y la experiencia del usuario.

8. Inteligencia artificial y aprendizaje automático:


Ofrece plataformas y herramientas para desarrollar, entrenar e implementar modelos de inteligencia artificial y aprendizaje
automático a gran escala.

Beneficios del cloud computing

1. Reducción de costos:
Elimina la necesidad de invertir en hardware costoso y reduce los costos de mantenimiento. Los usuarios solo pagan por los
recursos que utilizan, lo que permite una mejor gestión del presupuesto.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 8/57
8/11/24, 17:56 Tema 3. Poner nombre

2. Escalabilidad y flexibilidad:
Permite escalar recursos (almacenamiento, procesamiento, etc.) hacia arriba o hacia abajo según las necesidades del negocio,
sin preocuparse por la capacidad física del hardware.

3. Accesibilidad global:
Los servicios y datos almacenados en la nube son accesibles desde cualquier lugar del mundo, facilitando el trabajo remoto y la
colaboración internacional.

4. Alta disponibilidad y fiabilidad:


Los proveedores de servicios en la nube suelen ofrecer altos niveles de disponibilidad y redundancia, lo que garantiza que los
servicios estén siempre en funcionamiento, incluso en caso de fallos de hardware o interrupciones.

5. Seguridad mejorada:
Los proveedores de nube invierten significativamente en medidas de seguridad avanzadas, incluyendo encriptación de datos,
control de acceso y protección contra amenazas cibernéticas. Además, permiten cumplir con regulaciones de seguridad más
fácilmente.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 9/57
8/11/24, 17:56 Tema 3. Poner nombre

6. Innovación y rapidez en el mercado:


Las empresas pueden lanzar nuevas aplicaciones y servicios mucho más rápido utilizando la nube, lo que les permite innovar
continuamente y adaptarse a las demandas del mercado.

7. Gestión y mantenimiento simplificados:


Las actualizaciones de software, parches de seguridad y mantenimiento general son gestionados por el proveedor de servicios en
la nube, lo que libera tiempo y recursos internos.

8. Sostenibilidad:
La computación en la nube puede ser más eficiente energéticamente que las soluciones locales, ya que permite un uso
optimizado de los recursos, contribuyendo a una menor huella de carbono.

9. Mejora en la colaboración:
Herramientas y servicios basados en la nube facilitan la colaboración entre equipos distribuidos, permitiendo a las organizaciones
trabajar de manera más efectiva y eficiente.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 10/57
8/11/24, 17:56 Tema 3. Poner nombre

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 11/57
8/11/24, 17:56 Tema 3. Poner nombre

3.2. Edge Computing y sus aplicaciones

Definición de edge computing

Edge computing es un modelo de computación distribuida que lleva la capacidad de procesamiento de datos más cerca del lugar donde se
generan esos datos, es decir, en "el borde" de la red (de ahí el término "edge"). En lugar de enviar todos los datos a un centro de datos
centralizado o a la nube para ser procesados, analizados y almacenados, el edge computing permite que estas operaciones se realicen más
cerca del origen de los datos, como en dispositivos locales, gateways o micro centros de datos.

Características principales del edge computing

1. Procesamiento local:

Los datos se procesan cerca de donde se generan, lo que reduce la latencia (el tiempo que tarda un dato en ir desde el origen
hasta su destino) y permite respuestas más rápidas.

2. Reducción de ancho de banda:

Al procesar los datos localmente, solo se envían a la nube o a un centro de datos aquellos datos que realmente necesitan ser
almacenados o procesados a un nivel más avanzado, reduciendo así el uso de ancho de banda.

3. Mejora en la seguridad y privacidad:

Procesar datos localmente también puede mejorar la seguridad y privacidad, ya que se puede evitar enviar información sensible a
la nube, manteniéndola más controlada y protegida en el dispositivo local.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 12/57
8/11/24, 17:56 Tema 3. Poner nombre

4. Escalabilidad:

Al distribuir el procesamiento de datos en varios puntos de la red, es más fácil escalar las operaciones para manejar un gran
volumen de datos sin sobrecargar un único centro de datos.

5. Fiabilidad y resiliencia:

Como el procesamiento no depende completamente de una conexión continua a la nube, los sistemas pueden seguir funcionando
incluso si hay problemas de conectividad.

Aplicaciones del edge computing

Internet de las cosas (IoT):


En aplicaciones de IoT, donde numerosos dispositivos generan datos continuamente, como en fábricas
inteligentes, ciudades inteligentes o dispositivos domésticos conectados, el edge computing permite procesar
datos en tiempo real, reduciendo la latencia y mejorando la eficiencia.

2. Vehículos autónomos:
Los coches autónomos requieren procesar enormes cantidades de datos en tiempo real (como imágenes de
cámaras, datos de sensores y mapas) para tomar decisiones rápidas y seguras. El edge computing permite
realizar este procesamiento dentro del vehículo.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 13/57
8/11/24, 17:56 Tema 3. Poner nombre

3. Salud:
En dispositivos médicos portátiles o en hospitales, el edge computing permite el procesamiento rápido de
datos vitales, como el monitoreo en tiempo real de los signos vitales de los pacientes, con la posibilidad de
realizar análisis sin depender de la conectividad constante a la nube.

4. Juegos y realidad aumentada/virtual:


Para aplicaciones de juegos en línea o experiencias de realidad aumentada y virtual, donde la latencia debe
ser mínima para garantizar una experiencia fluida, el edge computing puede reducir los retrasos procesando
datos más cerca del usuario.

5. Análisis de video en tiempo real:


En sistemas de seguridad o monitorización que utilizan cámaras, el edge computing permite analizar videos
en tiempo real en el lugar donde se capturan, identificando amenazas o situaciones críticas de inmediato.

Beneficios del edge computing

Reducción de latencia: procesar datos más cerca del origen significa que las decisiones pueden tomarse casi en tiempo real.

Optimización de recursos: al filtrar y procesar datos localmente, se reduce la cantidad de datos que deben enviarse a la nube, lo
que disminuye el consumo de ancho de banda y costos asociados.

Mejora de la experiencia del usuario: al minimizar la latencia y asegurar una mayor disponibilidad, se mejoran las aplicaciones que
requieren respuestas rápidas.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 14/57
8/11/24, 17:56 Tema 3. Poner nombre

Mejor seguridad: al procesar datos localmente, se pueden implementar medidas de seguridad más específicas para proteger la
información sensible.

Desafíos del edge computing

Gestión y mantenimiento: gestionar una gran cantidad de dispositivos distribuidos en el edge puede ser complejo, ya que cada
dispositivo necesita monitoreo, mantenimiento y actualización.

Seguridad: aunque puede mejorar la privacidad, también presenta nuevos desafíos de seguridad, como la protección de muchos
puntos de acceso distribuidos.

Interoperabilidad: asegurar que los dispositivos y sistemas de diferentes fabricantes funcionen juntos de manera eficiente es crucial.

Diferencias entre cloud computing y edge computing

Cloud computing y edge computing son dos paradigmas de la computación que se utilizan para procesar, almacenar y gestionar datos, pero
lo hacen de maneras diferentes, con objetivos y aplicaciones distintas. A continuación, se describen las principales diferencias entre ambos:

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 15/57
8/11/24, 17:56 Tema 3. Poner nombre

GrumpyBeere. Fábrica de plástico (Pixabay)

Cloud computing Edge computing


El procesamiento de datos se realiza en centros de datos El procesamiento de datos se realiza lo más cerca posible de
1. Ubicación remotos que están centralizados. Estos centros pueden la fuente de generación de los datos, es decir, en "el borde" de
del estar ubicados en cualquier parte del mundo, y los datos la red. Esto puede ser en dispositivos locales, gateways, o
procesamiento son enviados desde los dispositivos del usuario hasta micro centros de datos cercanos, evitando la necesidad de
estos centros para ser procesados y almacenados. enviar todos los datos a un centro de datos centralizado.
Al depender de centros de datos centralizados que
pueden estar lejos del punto de generación de los datos, Al procesar los datos localmente o en ubicaciones cercanas, la
el tiempo que tarda la información en viajar hacia el centro latencia es significativamente menor. Esto es crucial para
2. Latencia
y de vuelta al usuario puede ser mayor. Esto puede aplicaciones donde la velocidad de respuesta es crítica, como
resultar en mayor latencia, lo que no es ideal para en vehículos autónomos, juegos en línea, o sistemas de salud
aplicaciones que requieren respuestas en tiempo real.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 16/57
8/11/24, 17:56 Tema 3. Poner nombre

El envío continuo de grandes cantidades de datos a la Reduce la necesidad de ancho de banda porque solo se
nube puede requerir un ancho de banda considerable. envían a la nube los datos que realmente necesitan se
3. Ancho de
Esto puede aumentar los costos y la demanda de almacenados o procesados a largo plazo. El procesamiento
banda
infraestructura de red, especialmente cuando se manejan local filtra y analiza los datos, disminuyendo la cantidad de
grandes volúmenes de datos. información que necesita ser transmitida.
Es altamente escalable debido a los vastos recursos
La escalabilidad es más limitada en comparación con la nube
disponibles en los centros de datos. Las empresas
4. centralizada, ya que depende de la infraestructura local. Sin
pueden aumentar o disminuir rápidamente su capacidad
Escalabilidad embargo, es posible escalar de manera distribuida mediante la
de procesamiento y almacenamiento según sea
implementación de más nodos de procesamiento en el edge.
necesario.
Los datos almacenados en la nube están bajo la
Al mantener los datos más cerca de su fuente, es posible
protección y gestión del proveedor de servicios en la
reducir el riesgo de exposición durante la transmisión. Sin
5. Seguridad y nube, que implementa medidas de seguridad avanzadas.
embargo, la seguridad en edge computing puede ser más
privacidad Sin embargo, los datos deben viajar a través de internet,
complicada, ya que implica proteger múltiples dispositivos y
lo que puede representar un riesgo de seguridad y
puntos de acceso distribuidos.
privacidad.
Puede ser más costoso a largo plazo debido al uso
continuo de recursos y al ancho de banda necesario para Puede reducir los costos de transmisión de datos y mejorar la
transferir grandes volúmenes de datos. No obstante, la eficiencia, pero puede implicar mayores costos iniciales en
6. Costos
infraestructura y el mantenimiento son responsabilidad del términos de instalación y mantenimiento de dispositivos y
proveedor de la nube, lo que puede reducir costos para servidores locales.
las empresas.
Internet de las Cosas (IoT).
Almacenamiento masivo de datos.
7. Vehículos autónomos.
Aplicaciones empresariales (ERP, CRM).
Aplicaciones Sistemas de salud en tiempo real.
Servicios de streaming y distribución de contenido.
comunes Juegos en línea y realidad aumentada/virtual.
Big data y análisis de datos a gran escala.
Sistemas industriales y automatización en tiempo real.

Resumen

Cloud computing es ideal para aplicaciones que requieren una gran capacidad de almacenamiento y procesamiento a escala, con un
enfoque en la centralización y la escalabilidad.
localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 17/57
8/11/24, 17:56 Tema 3. Poner nombre

Edge computing es más adecuado para aplicaciones que necesitan procesamiento en tiempo real, baja latencia, y mayor control
sobre la seguridad y la privacidad a nivel local.

Ambos paradigmas no son mutuamente excluyentes y, en muchos casos, se complementan entre sí. Las empresas pueden utilizar una
combinación de cloud computing y edge computing para optimizar el procesamiento de datos y mejorar la eficiencia general de sus
operaciones.

Aplicaciones de edge computing en sectores productivos

El edge computing se está convirtiendo en una tecnología clave en diversos sectores productivos debido a su capacidad para procesar
datos en tiempo real, mejorar la eficiencia y reducir la latencia. A continuación, se describen algunas aplicaciones específicas del edge
computing en diferentes sectores productivos:

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 18/57
8/11/24, 17:56 Tema 3. Poner nombre

Gerd Altmann. Casa inteligente (Pixabay)

1. Manufactura y automoción
Mantenimiento predictivo: en fábricas inteligentes, el edge computing permite analizar datos de sensores en máquinas y
equipos en tiempo real para predecir fallos y programar el mantenimiento antes de que ocurra un problema. Esto reduce el tiempo
de inactividad y optimiza la producción.
Control de calidad en tiempo real: los datos de las líneas de producción pueden ser analizados en el borde para detectar
defectos en productos de manera instantánea, asegurando una alta calidad en la fabricación sin necesidad de enviar datos a un
centro remoto.
Automatización industrial: el edge computing es crucial para la automatización de procesos industriales, permitiendo el control y
la gestión en tiempo real de robots y sistemas automatizados en la planta de producción.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 19/57
8/11/24, 17:56 Tema 3. Poner nombre

2. Energía y servicios públicos


Gestión de redes eléctricas inteligentes: en las redes eléctricas inteligentes (smart grids), el edge computing permite gestionar
y optimizar la distribución de energía, ajustando la oferta y la demanda en tiempo real, mejorando la eficiencia energética y
reduciendo costos.
Monitoreo de infraestructura crítica: las infraestructuras críticas, como plantas de energía o redes de distribución de agua,
utilizan el edge computing para monitorear sistemas en tiempo real, identificar problemas y realizar ajustes automáticos para
mantener la operación continua y segura.
Medición inteligente: los medidores inteligentes (smart meters) pueden utilizar edge computing para analizar el consumo de
energía en tiempo real, proporcionando información inmediata a los usuarios y a las compañías de servicios públicos para una
mejor gestión de la energía.

3. Salud
Monitorización de pacientes en tiempo real: dispositivos médicos conectados, como monitores cardíacos o de glucosa, pueden
utilizar edge computing para analizar los datos del paciente en tiempo real y enviar alertas inmediatas a los profesionales de la
salud en caso de una emergencia, sin depender de una conexión constante a la nube.
Cirugía robótica: en procedimientos quirúrgicos asistidos por robots, el edge computing permite que las máquinas procesen
datos en tiempo real, proporcionando a los cirujanos una respuesta inmediata y precisa, lo cual es crítico para el éxito de la
cirugía.
Telemedicina: permite el procesamiento local de datos de los pacientes para diagnósticos rápidos y eficientes, mejorando la
calidad de la atención médica, especialmente en áreas rurales o con poca infraestructura de telecomunicaciones.

4. Agricultura y Agroindustria

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 20/57
8/11/24, 17:56 Tema 3. Poner nombre

Agricultura de precisión: los sensores y drones en campos agrícolas pueden procesar datos en el borde para monitorear la
salud de los cultivos, las condiciones del suelo y el uso del agua en tiempo real, permitiendo a los agricultores tomar decisiones
informadas y optimizar los recursos.
Ganadería inteligente: el edge computing se utiliza para monitorear el comportamiento, la salud y la alimentación del ganado,
proporcionando datos en tiempo real que permiten mejorar la producción y el bienestar animal.

Monitoreo climático local: los dispositivos de edge computing pueden procesar datos meteorológicos y ambientales en tiempo
real, ayudando a los agricultores a tomar decisiones más precisas sobre riego, fertilización y protección de cultivos.

5. Retail y comercio
Gestión de inventarios en tiempo real: las tiendas y almacenes pueden utilizar edge computing para monitorear inventarios en
tiempo real, optimizar el reabastecimiento y reducir la escasez o exceso de stock.
Experiencia del cliente personalizada: el edge computing permite procesar datos del comportamiento del cliente dentro de la
tienda en tiempo real, ajustando las ofertas, promociones y sugerencias de productos personalizadas.

Sistemas de pago y seguridad: los sistemas de pago pueden beneficiarse del edge computing al procesar transacciones de
manera segura y rápida, mientras que las cámaras de seguridad con análisis en tiempo real pueden identificar amenazas
potenciales instantáneamente.

6. Transporte y logística
Gestión de flotas: en la gestión de flotas de vehículos, el edge computing permite monitorear y optimizar rutas, consumo de
combustible, y el estado de los vehículos en tiempo real, mejorando la eficiencia y reduciendo costos.
Vehículos autónomos: los vehículos autónomos dependen del edge computing para procesar grandes cantidades de datos de
sensores, cámaras y radares en tiempo real, permitiendo una conducción segura y eficiente sin la necesidad de depender de la
nube.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 21/57
8/11/24, 17:56 Tema 3. Poner nombre

Gestión de almacenes: los robots y sistemas automatizados en almacenes utilizan edge computing para realizar tareas como la
clasificación de paquetes, la carga y descarga de mercancías, y la gestión del inventario en tiempo real.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 22/57
8/11/24, 17:56 Tema 3. Poner nombre

3.3 (Ciber) Seguridad de las Tecnologías Habilitadoras Digitales (THD)

Importancia de la seguridad en la transformación digital

La seguridad es un pilar fundamental en cualquier proceso de transformación digital. A medida que las empresas adoptan nuevas
tecnologías y digitalizan sus operaciones, enfrentan un panorama de amenazas cada vez más complejo. Aquí te explico por qué la
seguridad es crucial en la transformación digital:

Jaydeep Joshi. ciberdelito (Pixabay)

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 23/57
8/11/24, 17:56 Tema 3. Poner nombre

1. Protección de datos sensibles

Confidencialidad: las organizaciones manejan grandes volúmenes de datos, incluyendo información personal de clientes, datos
financieros, y propiedad intelectual. Proteger esta información es esencial para evitar violaciones de datos que puedan resultar en
pérdida de confianza, sanciones legales, y daños a la reputación.
Integridad de los datos: la transformación digital implica un flujo constante de datos entre sistemas y dispositivos. La seguridad
asegura que estos datos no sean alterados, manipulados o corrompidos durante su transmisión o almacenamiento.

2. Cumplimiento normativo

Regulaciones y normativas: muchas industrias están sujetas a estrictas regulaciones de protección de datos, como el
Reglamento General de Protección de Datos (RGPD) en Europa, la Ley de Privacidad del Consumidor de California (CCPA) en
EE.UU., entre otras. La seguridad en la transformación digital es crucial para garantizar que las empresas cumplan con estas
normativas, evitando multas y sanciones.

3. Prevención de ciberataques

Amenazas cibernéticas: a medida que las empresas se digitalizan, se convierten en objetivos más atractivos para ciberataques
como ransomware, phishing, y malware. Implementar medidas de seguridad sólidas es fundamental para prevenir estas
amenazas y mitigar el impacto en caso de un ataque.
Protección de Infraestructura Crítica: las empresas que digitalizan sus operaciones deben asegurar sus infraestructuras críticas
(como sistemas SCADA en energía y manufactura) contra posibles ataques que puedan causar interrupciones graves o incluso
poner en riesgo la seguridad pública.

4. Confianza del cliente y reputación corporativa

Confianza: los clientes confían en que las empresas protegerán su información personal. Una violación de datos puede erosionar
esa confianza, resultando en la pérdida de clientes y daños a largo plazo en la reputación de la empresa.
localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 24/57
8/11/24, 17:56 Tema 3. Poner nombre

Diferenciación competitiva: las empresas que priorizan la seguridad digital pueden destacarse en el mercado, utilizando su
enfoque en la protección de datos como un diferenciador competitivo que atrae a clientes conscientes de la seguridad.

5. Continuidad del negocio

Planes de resiliencia: la seguridad no solo se trata de prevención, sino también de cómo una empresa responde a incidentes.
Implementar estrategias de seguridad robustas garantiza que una organización pueda recuperarse rápidamente de un ciberataque
o interrupción, minimizando el tiempo de inactividad y asegurando la continuidad del negocio.
Seguridad en la nube y edge computing: a medida que las empresas adoptan tecnologías como cloud computing y edge
computing, deben asegurarse de que los datos estén protegidos en todos los puntos de la red, incluyendo los dispositivos en el
borde y los entornos de nube.

6. Protección de la innovación

Innovación segura: la transformación digital a menudo impulsa la innovación, ya sea en productos, servicios o modelos de
negocio. Sin embargo, para que la innovación sea sostenible, debe estar respaldada por un enfoque de seguridad que proteja
nuevas ideas y tecnologías de ser comprometidas o robadas por actores maliciosos.
Desarrollo seguro de software: con la digitalización, el desarrollo de software se convierte en una actividad central. Integrar la
seguridad en el ciclo de vida del desarrollo de software (DevSecOps) es crucial para evitar vulnerabilidades que puedan ser
explotadas.

7. Gestión de identidades y accesos

Control de acceso: en un entorno digital, donde los empleados pueden acceder a sistemas y datos desde cualquier lugar, es vital
implementar sistemas de gestión de identidades y accesos (IAM) que aseguren que solo las personas autorizadas puedan
acceder a recursos críticos.
Autenticación multifactor (MFA): es una medida de seguridad importante para proteger contra el acceso no autorizado,
asegurando que las credenciales robadas no sean suficientes para comprometer un sistema.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 25/57
8/11/24, 17:56 Tema 3. Poner nombre

8. Respaldo a la transformación digital

Adaptación de la cultura organizacional: la transformación digital implica cambios en la cultura organizacional. Fomentar una
cultura de ciberseguridad dentro de la empresa, donde cada empleado entiende su papel en la protección de los datos y sistemas,
es fundamental para el éxito de la transformación digital.
Seguridad en la innovación: Las iniciativas de transformación digital suelen introducir nuevas tecnologías y plataformas. Integrar
la seguridad desde el inicio de estos proyectos garantiza que la innovación no se vea comprometida por vulnerabilidades o
riesgos no controlados.

Identificación de brechas de seguridad en áreas digitalizadas

La identificación de brechas de seguridad en áreas digitalizadas es un proceso crítico para proteger la integridad, confidencialidad y
disponibilidad de los datos y sistemas dentro de una organización. Las brechas de seguridad pueden surgir en diversas etapas de la
digitalización, y es esencial detectarlas a tiempo para prevenir incidentes que puedan comprometer la seguridad de la empresa. Aquí te
explico cómo se pueden identificar estas brechas:

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 26/57
8/11/24, 17:56 Tema 3. Poner nombre

Rupert Kittinger-Sereinig. Brecha (Pixabay)

1. Análisis de vulnerabilidades
Escaneo de vulnerabilidades: utiliza herramientas de escaneo de vulnerabilidades que pueden identificar fallos conocidos en
aplicaciones, sistemas operativos, y redes. Estas herramientas buscan puntos débiles en el software y hardware que puedan ser
explotados por ciberatacantes.
Revisión de parches y actualizaciones: analiza la infraestructura digital para asegurar que todos los sistemas y aplicaciones
están actualizados con los últimos parches de seguridad. Los sistemas no actualizados son una fuente común de brechas.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 27/57
8/11/24, 17:56 Tema 3. Poner nombre

2. Pruebas de penetración (pentesting)


Simulación de ataques: realiza pruebas de penetración para simular ataques cibernéticos en los sistemas. Estas pruebas
identifican las brechas de seguridad al intentar comprometer los sistemas de la misma manera que lo haría un atacante real.

Análisis de resultados: después de las pruebas, analiza los puntos de acceso que lograron ser comprometidos para entender
cómo y por qué fueron vulnerados. Esto permite identificar brechas específicas y corregirlas.

3. Monitoreo y detección de amenazas


Sistemas de monitoreo continuo: implementa sistemas de monitoreo continuo que pueden detectar comportamientos inusuales
o intentos de acceso no autorizado en tiempo real. Esto incluye la implementación de SIEM (Security Information and Event
Management) para correlacionar eventos y detectar posibles brechas.
Alertas de seguridad: Ccnfigura alertas que notifiquen inmediatamente al equipo de seguridad cuando se detecta una actividad
sospechosa o un intento de brecha.

4. Revisión de configuraciones de seguridad


Auditorías de configuración: revisa regularmente las configuraciones de seguridad de sistemas, aplicaciones y dispositivos.
Configuraciones incorrectas o débiles pueden crear brechas que son fácilmente explotadas por atacantes.
Principio de mínimos privilegios: asegúrate de que los usuarios y sistemas solo tienen los permisos necesarios para realizar
sus funciones. Esto minimiza el riesgo de que un atacante explote privilegios elevados.

5. Gestión de identidades y accesos (IAM)


localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 28/57
8/11/24, 17:56 Tema 3. Poner nombre

Evaluación de accesos: revisa los permisos de acceso de todos los usuarios y sistemas para asegurarte de que no hay accesos
innecesarios o excesivos que puedan convertirse en una brecha de seguridad.
Autenticación multifactor (MFA): implementa la autenticación multifactor en todos los accesos críticos para añadir una capa
adicional de seguridad.

6. Revisión de políticas y procedimientos de seguridad


Auditorías de seguridad: realiza auditorías regulares de las políticas y procedimientos de seguridad para identificar áreas donde
las prácticas no están alineadas con las mejores prácticas o donde se han dejado lagunas.
Capacitación y concienciación: asegúrate de que los empleados están capacitados para reconocer y reportar posibles brechas
de seguridad. Un fallo humano es una de las principales causas de brechas.

7. Evaluación de proveedores externos


Seguridad de la cadena de suministro: evalúa la seguridad de los proveedores y socios externos que tienen acceso a tus
sistemas o datos. Una brecha en la cadena de suministro puede comprometer tu seguridad.
Revisión de contratos: asegúrate de que los contratos con terceros incluyen cláusulas que exijan medidas de seguridad robustas
y la notificación inmediata en caso de una brecha de seguridad.

8. análisis de log y registros


Revisión de logs: los logs y registros de eventos pueden proporcionar información crucial sobre intentos de acceso no
autorizados o actividades anómalas que podrían indicar una brecha de seguridad.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 29/57
8/11/24, 17:56 Tema 3. Poner nombre

Automatización del análisis de logs: utiliza herramientas de análisis automatizado para revisar grandes volúmenes de logs y
detectar patrones o eventos inusuales que podrían indicar una brecha.

9. Evaluación de la seguridad en la nube


Configuración de seguridad en la nube: revisa las configuraciones de seguridad de los servicios en la nube utilizados por la
organización. Configuraciones incorrectas en la nube son una fuente común de brechas.
Control de Acceso y datos en la nube: asegúrate de que los controles de acceso y los datos almacenados en la nube están
adecuadamente protegidos contra accesos no autorizados.

10. Pruebas de respuesta a incidentes


Simulacros de incidentes: realiza simulacros de respuesta a incidentes para identificar posibles debilidades en la capacidad de
respuesta de la organización. Esto ayuda a detectar brechas en los procedimientos de seguridad.
Análisis post-incidente: después de un incidente de seguridad, realiza un análisis exhaustivo para identificar cómo ocurrió la
brecha y cómo se puede prevenir en el futuro.

Estrategias para mitigar brechas de seguridad

Mitigar brechas de seguridad es fundamental para proteger los activos digitales, los datos y la integridad operativa de cualquier
organización. Las estrategias para mitigar estas brechas deben ser proactivas y multifacéticas, abordando tanto los aspectos técnicos como

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 30/57
8/11/24, 17:56 Tema 3. Poner nombre

humanos. Aquí te presento algunas estrategias clave:

Gerd Altman. Your personal files are encripted (Pixabay)

1. Implementar autenticación multifactor (MFA)


Descripción: MFA agrega una capa adicional de seguridad al requerir más de un método de verificación (como una contraseña y
un código enviado al móvil) antes de conceder acceso a un sistema.
Beneficio: reduce significativamente el riesgo de acceso no autorizado, incluso si las credenciales de un usuario son
comprometidas.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 31/57
8/11/24, 17:56 Tema 3. Poner nombre

2. Cifrado de datos
Cifrado en tránsito: asegura que los datos que se transmiten entre dispositivos o redes estén cifrados, de modo que, si se
interceptan, no puedan ser leídos.
Cifrado en reposo: cifra los datos almacenados en servidores, discos duros o bases de datos para que no puedan ser accesibles
sin las claves adecuadas.
Beneficio: el cifrado protege los datos sensibles y minimiza el impacto de una brecha de seguridad al hacer que los datos
robados sean inservibles para los atacantes.

3. Gestión de parcheo y actualización regular


Descripción: mantén todos los sistemas, software y dispositivos actualizados con los últimos parches de seguridad y
actualizaciones de software.
Automatización del patching: utiliza herramientas que automatizan el proceso de parcheo, reduciendo el tiempo en que los
sistemas permanecen vulnerables.
Beneficio: el parcheo regular corrige vulnerabilidades conocidas que podrían ser explotadas por atacantes.

4. Implementar un sistema de gestión de identidades y accesos (IAM)


Control de acceso basado en roles (RBAC): asigna permisos según los roles específicos de los empleados dentro de la
organización, limitando el acceso a los datos y sistemas solo a aquellos que lo necesiten para su trabajo.
Supervisión de accesos: monitorea y registra el acceso a sistemas críticos para detectar y responder a comportamientos
anómalos.
Beneficio: IAM asegura que solo las personas autorizadas tengan acceso a información y sistemas críticos, minimizando el riesgo
de acceso no autorizado.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 32/57
8/11/24, 17:56 Tema 3. Poner nombre

5. Capacitación y concienciación en seguridad


Formación regular: implementa programas de formación en ciberseguridad para todos los empleados, enseñándoles a identificar
amenazas como phishing, malware, y otras tácticas de ingeniería social.
Simulacros de phishing: realiza simulacros de ataques de phishing para evaluar la preparación de los empleados y mejorar sus
habilidades para detectar ataques.
Beneficio: una fuerza laboral educada es la primera línea de defensa contra muchas amenazas de seguridad, reduciendo el
riesgo de errores humanos que podrían provocar una brecha.

6. Implementar sistemas de monitoreo y detección de intrusiones (IDS/IPS)


Monitoreo continuo: implementa herramientas de monitoreo en tiempo real que pueden detectar actividades sospechosas,
patrones de tráfico anómalos, o intentos de acceso no autorizados.
Sistema de prevención de intrusiones (IPS): además de detectar intrusiones, el IPS puede bloquear ataques en tiempo real
antes de que afecten al sistema.
Beneficio: el monitoreo proactivo permite detectar y responder a amenazas antes de que puedan explotar brechas de seguridad.

7. Segmentación de redes
Segmentación: divide la red en segmentos más pequeños y seguros, cada uno con controles de acceso específicos. Esto limita
la capacidad de un atacante para moverse lateralmente dentro de la red en caso de que logre comprometer una parte.
Beneficio: la segmentación de la red contiene los daños potenciales de una brecha de seguridad, evitando que se extienda a toda
la infraestructura.

8. Desarrollo seguro de software (DevSecOps)


localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 33/57
8/11/24, 17:56 Tema 3. Poner nombre

Integración de seguridad en el ciclo de desarrollo: asegúrate de que las prácticas de seguridad se integren en cada etapa del
desarrollo de software, desde la planificación hasta el despliegue.
Pruebas de seguridad automatizadas: implementa pruebas de seguridad automatizadas en el pipeline de desarrollo para
identificar vulnerabilidades antes de que el software sea lanzado.
Beneficio: un enfoque de DevSecOps ayuda a identificar y corregir vulnerabilidades en el software antes de que se desplieguen
en producción.

9. Implementar políticas de copia de seguridad y recuperación ante desastres


Copias de seguridad regulares: realiza copias de seguridad regulares de datos críticos, asegurando que puedan restaurarse
rápidamente en caso de una brecha o ataque de ransomware.
Pruebas de recuperación: realiza simulacros de recuperación para asegurarte de que las copias de seguridad se pueden
restaurar de manera efectiva.
Beneficio: las copias de seguridad aseguran que los datos pueden ser restaurados rápidamente en caso de pérdida, minimizando
el impacto de una brecha.

10. Evaluación y auditoría de seguridad regular


Auditorías internas y externas: realiza auditorías de seguridad regulares para evaluar la eficacia de las medidas de seguridad
implementadas y para identificar nuevas brechas o riesgos.
Revisión de configuraciones: asegúrate de que las configuraciones de seguridad se revisen y ajusten regularmente según las
mejores prácticas y las nuevas amenazas emergentes.
Beneficio: las auditorías y evaluaciones regulares aseguran que las medidas de seguridad estén actualizadas y efectivas contra
las amenazas actuales.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 34/57
8/11/24, 17:56 Tema 3. Poner nombre

Escriba su contenido...

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 35/57
8/11/24, 17:56 Tema 3. Poner nombre

3.4. Tratamiento y análisis de datos

Importancia del tratamiento de Datos

El tratamiento de datos es un proceso fundamental en la era digital, donde los datos se han convertido en uno de los activos más valiosos
para las organizaciones. El tratamiento adecuado de los datos implica su recopilación, almacenamiento, gestión, análisis y uso de manera
que se maximice su valor, a la vez que se protegen los derechos y la privacidad de los individuos. Aquí se detallan las razones por las
cuales el tratamiento de datos es crucial:

1. Toma de decisiones basadas en datos

Mejora en la toma de decisiones: el tratamiento adecuado de los datos permite a las organizaciones tomar decisiones
informadas basadas en hechos y cifras, en lugar de suposiciones. El análisis de datos ayuda a identificar patrones, tendencias y
oportunidades, lo que lleva a decisiones más precisas y estratégicas.
Ventaja competitiva: las empresas que gestionan y analizan sus datos de manera eficiente pueden obtener una ventaja
competitiva, identificando oportunidades de mercado más rápidamente y optimizando sus operaciones.

2. Optimización de procesos

Eficiencia operativa: mediante el análisis de datos, las organizaciones pueden identificar ineficiencias en sus procesos y realizar
ajustes para mejorar la productividad y reducir costos.
Automatización: el tratamiento de datos es clave para la automatización de procesos, permitiendo que las tareas repetitivas sean
gestionadas por sistemas automatizados basados en datos.

3. Personalización de productos y servicios

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 36/57
8/11/24, 17:56 Tema 3. Poner nombre

Experiencia del cliente: al tratar y analizar datos de clientes, las empresas pueden personalizar sus productos y servicios para
satisfacer mejor las necesidades individuales, mejorando así la satisfacción y la lealtad del cliente.
Marketing dirigido: los datos permiten segmentar audiencias y crear campañas de marketing más efectivas y personalizadas, lo
que incrementa la tasa de conversión y reduce los costos de adquisición de clientes.

4. Cumplimiento normativo y protección de datos

Cumplimiento de leyes y normativas: el tratamiento de datos debe cumplir con normativas de privacidad y protección de datos
como el reglamento general de protección de datos (RGPD) en Europa, la ley de privacidad del consumidor de California (CCPA),
entre otras. Un tratamiento adecuado asegura que la organización no enfrente sanciones legales por incumplimiento.
Protección de la privacidad: tratar los datos de manera responsable garantiza que la privacidad de los individuos esté protegida,
lo que es esencial para mantener la confianza del cliente y cumplir con las obligaciones legales.

5. Innovación y desarrollo de nuevos productos

Desarrollo basado en datos: el análisis de datos permite a las empresas identificar nuevas oportunidades de desarrollo de
productos o servicios basados en las necesidades y comportamientos de los consumidores.
Experimentación y validación: los datos permiten realizar pruebas y validar nuevas ideas antes de lanzarlas al mercado, lo que
reduce el riesgo asociado con la innovación.

6. Gestión de riesgos

Detección de fraude y anomalías: el tratamiento de datos permite identificar patrones sospechosos o anómalos que podrían
indicar fraude, robos o riesgos operativos.
Predicción y prevención: mediante el análisis de datos históricos y actuales, las organizaciones pueden predecir posibles
riesgos y tomar medidas preventivas para mitigarlos.

7. Sostenibilidad y responsabilidad corporativa

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 37/57
8/11/24, 17:56 Tema 3. Poner nombre

Optimización de recursos: el tratamiento de datos puede ayudar a las organizaciones a optimizar el uso de recursos naturales y
energéticos, contribuyendo a prácticas más sostenibles.
Transparencia y responsabilidad: tratar y gestionar datos de manera adecuada permite a las organizaciones ser más
transparentes en sus operaciones, cumpliendo con los estándares de responsabilidad social corporativa y mejorando la confianza
con sus stakeholders.

8. Mejora de la seguridad

Protección de activos digitales: el tratamiento seguro de los datos protege los activos digitales de la organización, evitando
accesos no autorizados y asegurando la integridad de la información.
Seguridad en la nube y edge computing: a medida que las organizaciones adoptan tecnologías como la nube y el edge
computing, el tratamiento seguro de los datos se vuelve crucial para proteger la información sensible y garantizar su disponibilidad
y confidencialidad.

9. Transformación digital

Soporte a la digitalización: el tratamiento de datos es el corazón de la transformación digital, proporcionando las bases para la
automatización, la inteligencia artificial, y la adopción de nuevas tecnologías que mejoran la competitividad y la eficiencia.
Integración de tecnologías: a través del tratamiento de datos, las organizaciones pueden integrar diferentes tecnologías y
sistemas, asegurando un flujo continuo de información que apoya la toma de decisiones y la innovación.

10. Valoración de activos intangibles

Valorización de datos: los datos se han convertido en un activo intangible de gran valor para las organizaciones. Un tratamiento
adecuado maximiza su valor, permitiendo su monetización a través de nuevos modelos de negocio, análisis predictivos, y la venta
de datos bajo estrictos controles de privacidad.
Protección de la propiedad intelectual: Gestionar correctamente los datos protege la propiedad intelectual de la organización,
asegurando que los desarrollos y descubrimientos tecnológicos se mantengan seguros.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 38/57
8/11/24, 17:56 Tema 3. Poner nombre

Procesos de tratamiento de datos: recopilación, almacenamiento, Análisis

El tratamiento de datos es un proceso integral que implica varias etapas clave: recopilación, almacenamiento y análisis. Cada una de estas
etapas es crucial para convertir los datos en información útil y, finalmente, en conocimientos que pueden guiar la toma de decisiones dentro
de una organización. A continuación, se describen estos procesos en detalle:

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 39/57
8/11/24, 17:56 Tema 3. Poner nombre

Wokandapix. Datos (Pixabay)

1. Recopilación de datos
localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 40/57
8/11/24, 17:56 Tema 3. Poner nombre

La recopilación de datos es el primer paso en el tratamiento de datos, y se refiere al proceso de reunir datos de diversas fuentes.
Este paso es crucial porque la calidad de los datos recopilados impacta directamente en la precisión y utilidad de los análisis
posteriores.

a. Fuentes de datos

Datos Primarios: información recopilada directamente de la fuente a través de encuestas, entrevistas, observaciones,
sensores, etc.

Datos Secundarios: información obtenida de fuentes existentes, como bases de datos públicas, informes, estudios
previos, o registros históricos.

b. Métodos de recopilación

Manual: recopilación de datos mediante la entrada manual, como la transcripción de encuestas en papel.

Automatizado: uso de sistemas automatizados que recopilan datos de manera continua, como sensores IoT, registros
de transacciones o sistemas de CRM.

En Ttempo real: recopilación de datos a medida que se generan, como el seguimiento de la actividad en un sitio web
o la recopilación de datos meteorológicos a través de sensores.

c. Consideraciones de calidad

Exactitud: asegurarse de que los datos sean precisos y libres de errores.

Consistencia: mantener la coherencia en la forma en que se recopilan los datos, utilizando los mismos métodos y
formatos.

Legalidad y ética: cumplir con las normativas legales, como el Reglamento General de Protección de Datos (RGPD), y
asegurar que la recopilación de datos se realiza de manera ética, obteniendo el consentimiento adecuado cuando sea
necesario.

2. Almacenamiento de datos

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 41/57
8/11/24, 17:56 Tema 3. Poner nombre

Una vez recopilados, los datos deben ser almacenados de manera segura y organizada para su posterior acceso y análisis. El
almacenamiento de datos implica no solo guardar la información, sino también gestionarla de forma eficiente para garantizar su
integridad y disponibilidad.

a. Sistemas de almacenamiento

Bases de datos relacionales (SQL): utilizan un esquema estructurado basado en tablas y permiten consultas
complejas. Ejemplos incluyen MySQL, PostgreSQL y Oracle.

Bases de datos NoSQL: ideales para datos no estructurados o semi-estructurados, como documentos, gráficos o
grandes volúmenes de datos. Ejemplos incluyen MongoDB y Cassandra.

Almacenamiento en la nube: servicios como Amazon S3, Google Cloud Storage o Azure Blob Storage permiten
almacenar grandes volúmenes de datos con escalabilidad y accesibilidad global.

Almacenamiento en Data Warehouses: son bases de datos optimizadas para consultas y análisis de grandes
cantidades de datos históricos. Ejemplos incluyen Amazon Redshift y Google BigQuery.

b. Seguridad del almacenamiento

Cifrado: los datos deben ser cifrados tanto en reposo como en tránsito para protegerlos de accesos no autorizados.

Control de acceso: implementación de políticas de control de acceso que limiten quién puede acceder y modificar los
datos almacenados.

Copia de seguridad (Backups): realización de copias de seguridad periódicas para prevenir la pérdida de datos en
caso de fallos del sistema o ciberataques.

c. Organización y gestión de datos

Estructuración de datos: organizar los datos de manera lógica, utilizando esquemas de bases de datos que faciliten el
acceso y la consulta eficiente.

Indexación: crear índices para acelerar las consultas y mejorar el rendimiento del sistema de almacenamiento.

Retención de datos: sstablecer políticas de retención para determinar cuánto tiempo se deben conservar los datos
antes de ser archivados o eliminados.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 42/57
8/11/24, 17:56 Tema 3. Poner nombre

3. Análisis de Ddtos
El análisis de datos es la etapa en la que los datos recopilados y almacenados se procesan para extraer información valiosa y
conocimientos accionables. Este proceso puede variar desde análisis descriptivos simples hasta modelos predictivos avanzados.

a. Tipos de Análisis

Análisis descriptivo: responde a preguntas sobre "qué ha sucedido" utilizando estadísticas básicas para describir los
datos históricos.

Análisis diagnóstico: busca entender "por qué ha sucedido" algo, utilizando técnicas como el análisis de correlación o
regresión para identificar causas subyacentes.

Análisis predictivo: utiliza técnicas de modelado y aprendizaje automático (machine learning) para predecir futuros
eventos o comportamientos basados en datos históricos.

Análisis prescriptivo: va más allá del análisis predictivo al sugerir acciones específicas para influir en los resultados
futuros deseados.

b. Herramientas de análisis

Herramientas de BI (Business Intelligence): como Tableau, Power BI, o Qlik, que permiten visualizar y explorar datos
para descubrir patrones y tendencias.

Lenguajes de programación: como Python (con bibliotecas como Pandas, NumPy, y Scikit-learn) o R, que son
ampliamente utilizados para análisis estadístico y modelado.

Plataformas de big data: como Apache Hadoop y Apache Spark, que permiten el procesamiento de grandes
volúmenes de datos a través de sistemas distribuidos.

c. Interpretación y presentación de resultados

Visualización de datos: crear gráficos, dashboards e informes que presenten los resultados de manera clara y
comprensible para los tomadores de decisiones.

Narrativa de datos (Data Storytelling): combinar visualización y narrativa para comunicar los hallazgos de manera
efectiva, ayudando a los stakeholders a comprender las implicaciones y tomar decisiones informadas.
localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 43/57
8/11/24, 17:56 Tema 3. Poner nombre

Validación y verificación: asegurarse de que los resultados del análisis son precisos, replicables y libres de sesgos.

Aplicaciones de la inteligencia artificial (IA) en el análisis de datos

La inteligencia artificial (IA) ha revolucionado el campo del análisis de datos, permitiendo a las organizaciones extraer información valiosa,
identificar patrones complejos y tomar decisiones más informadas y precisas. A continuación, se describen algunas de las principales
aplicaciones de la IA en el análisis de datos:

Descripción Aplicaciones

Finanzas: predicción de precios de acciones, análisis de riesgo crediticio


Utiliza algoritmos de IA para analizar datos y detección de fraudes.
históricos y predecir futuros eventos o
1. Análisis Marketing: predicción de tendencias de consumo, personalización de
comportamientos. Este tipo de análisis es
predictivo ofertas, y optimización de campañas publicitarias.
fundamental para planificar estrategias y
tomar decisiones proactivas. Salud: predicción de brotes de enfermedades, respuesta a tratamientos
y pronóstico de enfermedades crónicas.

Logística: optimización de rutas de transporte, gestión de inventarios y


Va un paso más allá del análisis predictivo al
planificación de la cadena de suministro.
recomendar acciones específicas para influir
2. Análisis Energía: optimización del uso de recursos energéticos, mantenimiento
en los resultados deseados. Utiliza IA para
prescriptivo predictivo de infraestructuras y reducción de costos operativos.
evaluar múltiples escenarios y determinar el
Recursos humanos: asesoramiento en procesos de contratación
mejor curso de acción.
gestión de talento y planificación de desarrollo de empleados.
3. El NLP permite a las máquinas entender, Atención al cliente: análisis de comentarios de clientes, detección de
Procesamiento interpretar y generar lenguaje humano. En el sentimientos y automatización de respuestas.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 44/57
8/11/24, 17:56 Tema 3. Poner nombre

del lenguaje análisis de datos, NLP se utiliza para extraer Medios y publicidad: análisis de menciones de marca en redes sociales
natural (NLP) información valiosa de textos no clasificación de contenido y segmentación de audiencias.
estructurados, como correos electrónicos, Legal y compliance: análisis de contratos y documentos legales
reseñas, documentos, y redes sociales. identificación de riesgos y cumplimiento normativo.
La IA es utilizada para identificar patrones Seguridad informática: detección de intrusiones, ataques de phishing y
inusuales o anómalos en los datos que comportamientos sospechosos.
4. Detección de pueden indicar problemas, oportunidades o Manufactura: identificación de defectos en productos, monitoreo de
anomalías riesgos. Este tipo de análisis es crucial en calidad y mantenimiento preventivo.
entornos donde la detección temprana de Finanzas: detección de fraude en transacciones bancarias, análisis de
anomalías puede prevenir incidentes graves. comportamiento de clientes y cumplimiento normativo.
El machine learning es una rama de la IA que E-commerce: recomendación de productos, optimización de precios y
5. Modelos de
permite a las máquinas aprender de los datos segmentación de clientes.
aprendizaje
y mejorar su rendimiento con el tiempo sin ser Salud: diagnóstico de enfermedades, análisis de imágenes médicas y
automático
programadas explícitamente. Se utiliza para desarrollo de tratamientos personalizados.
(Machine
construir modelos predictivos y realizar Banca y seguros: predicción de incumplimiento de pagos, evaluación de
learning)
análisis complejos. riesgos y diseño de productos personalizados.
Marketing: evaluación de la percepción de la marca, análisis de la
El análisis de sentimientos, impulsado por IA y
satisfacción del cliente y ajuste de estrategias de comunicación.
NLP, permite a las organizaciones comprender
6. Análisis de Gestión de la reputación: monitoreo en tiempo real de la reputación de
las emociones y opiniones expresadas en
sentimientos la marca en línea y respuesta rápida a crisis.
textos, como reseñas de productos,
Política y gobierno: análisis de la opinión pública y medición de la
comentarios en redes sociales y encuestas.
aceptación de políticas y decisiones gubernamentales.
Business intelligence: creación de dashboards interactivos que
La IA mejora la visualización de datos al crear
permiten a las empresas monitorear métricas clave y tomar decisiones
representaciones gráficas automáticas e
basadas en datos.
7. Visualización interactivas que permiten a los usuarios
Salud pública: visualización de datos epidemiológicos para identifica
de datos con IA explorar datos de manera más efectiva y
brotes y analizar la propagación de enfermedades.
descubrir patrones que podrían no ser
Educación: visualización de datos de rendimiento académico para
evidentes en tablas de datos tradicionales.
identificar áreas de mejora y personalizar la enseñanza.
8. Sistemas de Los sistemas de recomendación utilizan IA E-commerce: recomendación de productos relacionados, ofertas
recomendación para sugerir productos, servicios o contenidos personalizadas y mejora de la experiencia del usuario.
localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 45/57
8/11/24, 17:56 Tema 3. Poner nombre

a los usuarios en función de sus preferencias Entretenimiento: recomendación de películas, series, música y otros
y comportamientos anteriores. Estos sistemas contenidos multimedia basados en las preferencias del usuario.
son ampliamente utilizados en plataformas de Educación en línea: recomendación de cursos y recursos educativos
comercio electrónico, streaming y redes adaptados a los intereses y necesidades de los estudiantes.
sociales.
Manufactura: optimización de líneas de producción, gestión de
La IA se utiliza para analizar y optimizar
inventarios y reducción de desperdicios.
procesos empresariales, desde la gestión de
9. Optimización Logística: optimización de rutas de entrega, gestión de flotas y
la cadena de suministro hasta la producción
de procesos predicción de la demanda.
en fábricas, mejorando la eficiencia y
Gestión de recursos humanos: optimización de horarios de trabajo
reduciendo costos.
planificación de recursos y análisis de desempeño.
Atención al cliente: automatización de respuestas a consultas comunes
La IA permite automatizar tareas repetitivas y
10. a través de chatbots y asistentes virtuales.
de gran volumen, como la entrada de datos, la
Automatización Contabilidad: automatización de la reconciliación de cuentas, facturación
clasificación de documentos y la generación
de tareas y gestión de pagos.
de informes, liberando recursos humanos para
repetitivas Legal: clasificación y análisis de documentos legales, revisión de
tareas más estratégicas.
contratos y cumplimiento normativo.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 46/57
8/11/24, 17:56 Tema 3. Poner nombre

3.5. Integración de datos, aplicaciones y plataformas

Importancia de la integración en la transformación digital

La integración de datos es un componente esencial en la transformación digital de las organizaciones, ya que permite consolidar, unificar y
aprovechar al máximo la información que proviene de diferentes fuentes. En un mundo donde los datos son fundamentales para la toma de
decisiones, la integración eficaz de estos datos es crucial para lograr una verdadera transformación digital. A continuación, se explica por
qué es tan importante la integración de datos en este contexto:

Descripción Importancia
La integración de datos permite Toma de decisiones informada: con una visión centralizada, los líderes
consolidar información proveniente pueden tomar decisiones más informadas, basadas en una visión completa
1. Visión holística y
de diversas fuentes, como sistemas y coherente de la organización.
centralizada de la
ERP, CRM, redes sociales, Reducción de silos de información: facilita la eliminación de silos de
información
dispositivos IoT, y más, en una única datos, donde la información queda aislada en diferentes departamentos o
plataforma o base de datos. sistemas, lo que puede obstaculizar la colaboración y la eficiencia.
Personalización de servicios: con una visión unificada del cliente, las
La integración de datos permite a las
empresas pueden ofrecer experiencias más personalizadas, anticipando
2. Mejora de la empresas obtener una visión 360º
necesidades y adaptándose a las preferencias individuales.
experiencia del de sus clientes, combinando datos
Atención al cliente eficiente: Permite a los agentes de atención al cliente
cliente de ventas, marketing, atención al
acceder a toda la información relevante sobre un cliente en tiempo real,
cliente, redes sociales y más.
mejorando la eficiencia y la satisfacción del cliente.
Al integrar datos de diversas fuentes Automatización de procesos: la integración facilita la automatización de
operativas, como la cadena de procesos, como el flujo de trabajo en la cadena de suministro o la
3. Optimización de
suministro, la producción, las ventas sincronización de inventarios, lo que reduce errores y mejora la eficiencia.
procesos y
y la logística, las organizaciones Análisis en tiempo real: los datos integrados permiten realizar análisis en
operaciones
pueden optimizar sus procesos tiempo real para ajustar operaciones de manera rápida y efectiva,
internos. mejorando la agilidad organizacional.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 47/57
8/11/24, 17:56 Tema 3. Poner nombre

Identificación de oportunidades: combinando datos de mercado, ventas,


La integración de datos facilita el
y comportamiento del cliente, las organizaciones pueden identificar nuevas
4. Innovación y acceso a un amplio espectro de
oportunidades de negocio o áreas de mejora.
desarrollo de información, lo que es crucial para la
Desarrollo ágil: permite un ciclo de retroalimentación continuo y rápido
nuevos productos innovación y el desarrollo de nuevos
entre los equipos de desarrollo y los usuarios finales, lo que acelera el
productos o servicios.
proceso de innovación.
La integración de datos también es
Trazabilidad y transparencia: permite a las organizaciones tener un
vital para garantizar que la
control completo sobre dónde y cómo se almacenan y procesan los datos,
5. Cumplimiento organización cumpla con las
lo que es crucial para cumplir con las normativas.
normativo y normativas de protección de datos y
Protección de datos: facilita la implementación de políticas de seguridad
seguridad seguridad, como el Reglamento
coherentes y centralizadas, reduciendo el riesgo de violaciones de datos y
General de Protección de Datos
protegiendo la información sensible.
(RGPD).

La integración de datos es un paso Análisis más preciso: los datos integrados proporcionan un conjunto de
previo esencial para la datos más completo y preciso para análisis avanzados, lo que mejora la
6. Inteligencia de
implementación de soluciones de exactitud de las predicciones y las decisiones.
negocios y análisis
inteligencia de negocios (BI)
y Reporting eficaz: facilita la creación de informes y dashboards que
avanzado
análisis avanzado, como el machine reflejan el estado real del negocio en todas sus dimensiones, mejorando la
learning y la inteligencia artificial. capacidad de respuesta y la planificación estratégica.

A medida que las organizaciones Crecimiento sostenible: la integración facilita el crecimiento


crecen y se adaptan a nuevas organizacional, permitiendo agregar nuevos sistemas y fuentes de datos
7. Escalabilidad y tecnologías, la integración de datos sin perder cohesión o eficiencia.
adaptabilidad asegura que los sistemas y procesos Flexibilidad: proporciona la flexibilidad necesaria para adaptarse a nuevas
puedan escalar y adaptarse a tecnologías y modelos de negocio, asegurando que la infraestructura de
nuevas demandas. datos siga siendo relevante.
8. Reducción de La integración eficiente de datos
Eliminación de redundancias: reduce la duplicación de datos y procesos,
costos puede reducir costos operativos al
lo que puede generar ahorros significativos en almacenamiento y
optimizar el uso de recursos y
procesamiento.
mejorar la eficiencia.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 48/57
8/11/24, 17:56 Tema 3. Poner nombre

Mejora en la productividad: los empleados tienen acceso inmediato a la


información que necesitan, reduciendo el tiempo dedicado a buscar o
procesar datos y mejorando la productividad.

Acceso compartido a la información: al integrar datos, todos los


La integración de datos facilita la departamentos pueden acceder a la misma información actualizada, lo que
9. Mejora en la
colaboración entre diferentes facilita la colaboración y la toma de decisiones conjunta.
colaboración
departamentos y equipos dentro de Cohesión organizacional: promueve una cultura de colaboración y
interna
una organización. transparencia, donde los datos se utilizan para alinear objetivos y
estrategias en toda la organización.
Preparación para nuevas tecnologías: la integración de datos asegura
La transformación digital está en
que la organización esté preparada para adoptar nuevas tecnologías,
constante evolución, y la integración
10. Preparación como la inteligencia artificial y el IoT, de manera eficaz.
de datos prepara a las
para el futuro Resiliencia organizacional: proporciona una base sólida para la
organizaciones para enfrentar
continuidad del negocio y la capacidad de adaptarse rápidamente a
futuros desafíos y oportunidades.
cambios en el entorno empresarial.

Métodos de integración de datos: nube y edge computing

La integración de datos en el contexto de nube y edge computing es crucial para garantizar que la información fluya sin problemas entre
diferentes sistemas, ubicaciones y dispositivos. Ambos enfoques tienen métodos específicos para manejar la integración de datos, cada uno
con sus propias ventajas y desafíos. A continuación, se describen los principales métodos de integración de datos en entornos de nube y
edge computing.

Integración de datos en la nube

La integración de datos en la nube implica combinar, mover y procesar datos en entornos de nube, lo que permite a las organizaciones
aprovechar la escalabilidad, flexibilidad y accesibilidad de la nube.
localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 49/57
8/11/24, 17:56 Tema 3. Poner nombre

Descripción Proceso Aplicaciones


El método ETL implica extraer Extract: se extraen datos de fuentes como bases de
ETL es ideal para mover
1. ETL datos de diversas fuentes, datos, aplicaciones, archivos, etc.
grandes volúmenes de
(Extract, transformarlos para cumplir con Transform: los datos se limpian, normalizan y
datos de sistemas locales a
transform, los requisitos de destino, y luego transforman según las reglas de negocio.
la nube para análisis y
load) cargarlos en un almacén de datos Load: los datos transformados se cargan en el destino,
almacenamiento.
o sistema de nube. como un data warehouse en la nube.

Similar al ETL, pero los datos se


cargan directamente en el ELT es común en grandes
almacén de datos en la nube y Extract: extracción de datos desde las fuentes. entornos de big data donde
2. ELT luego se transforman allí. Esto es
Load: los datos se cargan tal cual en el almacén de la capacidad de
(Extract, load, útil cuando se trabaja con grandes procesamiento masivo en la
datos en la nube.
transform) volúmenes de datos o cuando se
Transform: los datos se transforman utilizando la nube permite
aprovechan las capacidades de transformaciones complejas
potencia de procesamiento de la nube.
procesamiento en la nube. de datos.

Las API permiten la integración de Desarrollo de API: las API se desarrollan para permitir Ideal para integrar
3. Integración datos en tiempo real entre que las aplicaciones intercambien datos. aplicaciones SaaS
de API diferentes aplicaciones y servicios Llamadas a API: las aplicaciones realizan llamadas a (Software as a Service) y
(Application en la nube. Las API son interfaces API para enviar y recibir datos en tiempo real. servicios basados en la
programming que permiten a las aplicaciones Gestión de API: las plataformas de gestión de API nube que requieren
interface) comunicarse entre sí y compartir (como API Gateway de AWS) permiten la supervisión y intercambio de datos en
datos de manera estandarizada. control de las interacciones de las API. tiempo real.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 50/57
8/11/24, 17:56 Tema 3. Poner nombre

Un data lake es un repositorio en


la nube que permite almacenar Ingesta de datos: los datos se integran en su forma Data lakes son ideales para
grandes volúmenes de datos bruta desde diversas fuentes. empresas que manejan
estructurados y no estructurados. Procesamiento: los datos se procesan utilizando grandes volúmenes de
4. Data lakes herramientas de big data y análisis avanzado en la nube.
Los datos se integran en su datos sin estructurar, como
formato original y pueden ser Análisis y consumo: los datos se analizan y consumen registros de clics, logs de
procesados y analizados según por aplicaciones y usuarios finales. eventos, o datos de IoT.
sea necesario.
iPaaS es una plataforma en la
nube que facilita la integración de Diseño de flujos: se crean flujos de trabajo para Ideal para empresas que
5. iPaaS datos entre diferentes integrar datos entre sistemas. utilizan múltiples
(Integration aplicaciones, servicios y sistemas Ejecución: los flujos se ejecutan automáticamente para aplicaciones SaaS y
platform as a en la nube. Proporciona mover y transformar datos entre aplicaciones. necesitan una integración
service) herramientas para
diseñar, Monitorización: se supervisan los flujos de integración fluida y automatizada entre
ejecutar y gestionar flujos de para asegurar que los datos se muevan correctamente. ellas.
integración

Integración de datos en edge computing

La integración de datos en edge computing se centra en procesar y analizar los datos cerca del lugar donde se generan, lo que es esencial
para aplicaciones que requieren baja latencia y decisiones en tiempo real.

Descripción Proceso Aplicaciones

En lugar de enviar todos los Recopilación de datos: los dispositivos IoT y sensores
datos a la nube, el recopilan datos en el edge. Usado en vehículos
1. procesamiento de datos en el autónomos, manufactura
Procesamiento edge implica analizar y filtrar Filtrado y procesamiento: los datos se filtran y se procesan inteligente, y monitoreo de
de datos en el datos en dispositivos o localmente para extraer información clave. infraestructuras críticas
edge servidores locales antes de Transmisión a la nube: solo los datos procesados o donde la latencia debe
transmitir solo los datos agregados se envían a la nube para análisis adicionales o mantenerse al mínimo.
relevantes a la nube. almacenamiento.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 51/57
8/11/24, 17:56 Tema 3. Poner nombre

Los edge gateways actúan Ingesta de datos: los edge gateways reciben datos de varios Común en entornos
como intermediarios que sensores o dispositivos. industriales y de IoT donde
2. Edge integran datos de múltiples Preprocesamiento: los datos se preprocesan para reducir la múltiples dispositivos
gateways dispositivos y los procesan cantidad de datos transmitidos y mejorar la eficiencia. generan datos que deben
antes de enviarlos a la nube Transmisión: los datos relevantes se envían a la nube o a un integrarse y analizarse en
o a un sistema central. servidor central para análisis más detallados. tiempo real.

La federación de datos en
Utilizado en escenarios
edge computing permite que Acceso a datos distribuidos: se accede a los datos desde
donde los datos no
los datos de diferentes múltiples ubicaciones sin moverlos a un repositorio central.
pueden ser centralizados
ubicaciones edge se integren Consultas federadas: las consultas pueden ejecutarse en
debido a restricciones de
3. Federación y compartan sin necesidad múltiples ubicaciones de datos distribuidas para obtener
latencia, privacidad, o
de datos de centralizarlos. Los datos resultados consolidados.
costo, como en
permanecen distribuidos, Seguridad y control: se implementan controles de acceso y
infraestructuras críticas o
pero son accesibles como si seguridad para asegurar que los datos se accedan de manera
en redes de
estuvieran en un solo segura.
telecomunicaciones.
repositorio.
Este enfoque combina lo
Procesamiento en el edge: se realiza el procesamiento inicial
mejor de la nube y edge Ideal para entornos
y análisis en tiempo real en el edge.
computing, permitiendo que industriales, ciudades
Sincronización con la nube: los datos procesados o
4. Integración los datos se procesen inteligentes, y vehículos
seleccionados se sincronizan con la nube para un análisis más
híbrida (Nube- localmente en el edge, conectados donde se
profundo, almacenamiento o agregación con otros datos.
Edge) mientras que los análisis más necesita procesamiento
Ciclo de retroalimentación: los resultados del análisis en la
profundos o el local rápido y análisis
nube pueden retroalimentarse al edge para optimizar
almacenamiento a largo centralizado a gran escala
operaciones en tiempo real.
plazo se realizan en la nube.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 52/57
8/11/24, 17:56 Tema 3. Poner nombre

Herramientas para la integración de aplicaciones: APIs, Middleware

La integración de aplicaciones es un aspecto crucial para garantizar que diferentes sistemas, aplicaciones y servicios dentro de una
organización puedan comunicarse y trabajar juntos de manera eficiente. Las APIs y el middleware son dos herramientas fundamentales en
este proceso. A continuación, se describen estas herramientas y su papel en la integración de aplicaciones.

1. APIs (Application Programming Interfaces)

Las APIs permiten que diferentes aplicaciones y servicios se comuniquen entre sí. Son esenciales para la integración moderna de
aplicaciones, especialmente en entornos de cloud computing, SaaS (Software as a Service) y microservicios.

a. Tipos de APIs

APIs REST (Representational State Transfer):

Descripción: utilizan HTTP para realizar operaciones CRUD (Create, Read, Update, Delete) sobre recursos web. REST es la
arquitectura más común para APIs web.

Uso: ideal para servicios web que necesitan ser escalables y fáciles de implementar, como servicios de redes sociales,
comercio electrónico, y aplicaciones móviles.

APIs SOAP (Simple Object Access Protocol):

Descripción: un protocolo basado en XML que define un conjunto de reglas para la comunicación entre aplicaciones, con un
enfoque en la seguridad y la fiabilidad.

Uso: utilizado en entornos empresariales que requieren transacciones seguras y altamente confiables, como servicios
financieros y de seguros.

APIs GraphQL:

Descripción: permite a los clientes solicitar exactamente los datos que necesitan, reduciendo la sobrecarga y mejorando el
rendimiento de las consultas.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 53/57
8/11/24, 17:56 Tema 3. Poner nombre

Uso: ideal para aplicaciones que necesitan manejar consultas complejas o volúmenes de datos grandes, como aplicaciones de
redes sociales o sistemas de gestión de contenido.

APIs OpenAPI (anteriormente Swagger):

Descripción: un estándar para diseñar, construir, y documentar APIs RESTful. OpenAPI permite a los desarrolladores generar
automáticamente documentación y clientes para APIs.

Uso: amplio en la industria para estandarizar la creación y documentación de APIs, facilitando la colaboración y la integración
entre equipos.

b. Funciones de las APIs en la integración de aplicaciones

Interoperabilidad: las APIs permiten que diferentes sistemas y aplicaciones se comuniquen e interactúen, independientemente de
sus lenguajes de programación, plataformas o tecnologías subyacentes.

Reutilización de servicios: las APIs permiten a las empresas reutilizar servicios existentes en diferentes aplicaciones, lo que reduce
el tiempo de desarrollo y mejora la coherencia.

Flexibilidad y escalabilidad: las APIs ofrecen una forma flexible de integrar aplicaciones y servicios, permitiendo a las
organizaciones escalar y modificar sus sistemas sin grandes interrupciones.

Automatización de flujos de trabajo: las APIs pueden automatizar procesos que requieren interacción entre múltiples aplicaciones,
como la sincronización de datos entre un CRM y un sistema de facturación.

c. Herramientas para la gestión de APIs

API Gateway: actúa como un punto de entrada único para gestionar las llamadas a APIs, implementando políticas de seguridad,
autenticación, y gestión del tráfico. Ejemplos incluyen Amazon API Gateway, Kong, y Apigee.

Plataformas de API management: herramientas como Mulesoft Anypoint Platform o IBM API Connect que facilitan el diseño,
implementación, seguridad, y monitoreo de APIs.

2. Middleware

El middleware es un software que actúa como un intermediario entre diferentes aplicaciones o servicios, facilitando la comunicación, la
gestión de datos y la integración. Es crucial para la integración de sistemas heterogéneos y complejos.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 54/57
8/11/24, 17:56 Tema 3. Poner nombre

a. Tipos de Middleware

ESB (Enterprise Service Bus):

Descripción: un software de integración que facilita la comunicación entre diferentes aplicaciones a través de un bus de
servicios. ESB proporciona capacidades como la transformación de mensajes, el enrutamiento, y la orquestación de servicios.

Ejemplos: Mule ESB, Apache Camel, y WSO2 ESB.

Uso: ideal para entornos empresariales complejos donde múltiples sistemas deben integrarse de manera coherente y escalable.

Message-Oriented Middleware (MOM):

Descripción: facilita la comunicación entre aplicaciones mediante el intercambio de mensajes. Los sistemas pueden enviar y
recibir mensajes de manera asincrónica, lo que mejora la resiliencia y el desacoplamiento.

Ejemplos: RabbitMQ, Apache Kafka, y ActiveMQ.

Uso: usado en sistemas que requieren alta disponibilidad y escalabilidad, como en la integración de microservicios o sistemas
de procesamiento de datos en tiempo real.

Database Middleware:

Descripción: actúa como un intermediario entre aplicaciones y bases de datos, facilitando el acceso, la administración y la
integración de datos distribuidos.

Ejemplos: Oracle Fusion Middleware, IBM Db2 Connect.

Uso: utilizado en entornos donde es necesario un acceso transparente y eficiente a múltiples bases de datos distribuidas.

Remote Procedure Call (RPC) Middleware:

Descripción: permite que una aplicación ejecute procedimientos o funciones en otra aplicación remota como si fueran locales.

Ejemplos: gRPC, Apache Thrift.

Uso: ideal para aplicaciones distribuidas que necesitan realizar operaciones remotas de manera eficiente y segura.

b. Funciones del Middleware en la integración de aplicaciones

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 55/57
8/11/24, 17:56 Tema 3. Poner nombre

Interoperabilidad: facilita la comunicación y el intercambio de datos entre aplicaciones y sistemas que operan en diferentes
plataformas o entornos.

Orquestación de servicios: permite la coordinación de servicios distribuidos, asegurando que los procesos de negocio se ejecuten
de manera fluida y coherente.

Transformación de datos: el middleware puede transformar datos de un formato a otro para asegurar que diferentes aplicaciones
puedan entender y procesar la información de manera efectiva.

Gestión de transacciones: facilita la gestión de transacciones distribuidas, asegurando que todas las operaciones se completen de
manera coherente y segura en entornos complejos.

c. Herramientas de Middleware comunes

MuleSoft Anypoint Platform: ofrece capacidades de ESB y gestión de APIs, facilitando la integración y orquestación de aplicaciones
en entornos híbridos y multinube.

TIBCO: proporciona soluciones de middleware que incluyen integración de aplicaciones, gestión de eventos y análisis en tiempo real.

IBM WebSphere: una suite completa de middleware que ofrece integración de aplicaciones, gestión de procesos de negocio, y
capacidades de ESB.

Red Hat JBoss Middleware: ofrece una amplia gama de servicios de middleware, incluyendo ESB, mensajería y gestión de procesos
de negocio.

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 56/57
8/11/24, 17:56 Tema 3. Poner nombre

Obra publicada con Licencia Creative Commons Reconocimiento Compartir igual 4.0

localhost:51238/temp_print_dirs/eXeTempPrintDir_rirh6z/Tema3V2/ 57/57

También podría gustarte