0% encontró este documento útil (0 votos)
83 vistas12 páginas

Inteligencia Artificial Apartados I, Ii, Iii

Este documento trata sobre sistemas informáticos emergentes como la inteligencia artificial. Explica conceptos clave como el machine learning, deep learning y procesamiento de lenguaje natural. También describe características de sistemas como máquinas reactivas, memoria limitada, teoría de la mente y autoconciencia. Por último, define las características del big data como volumen, velocidad, variedad y veracidad.

Cargado por

Rider Craft
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
83 vistas12 páginas

Inteligencia Artificial Apartados I, Ii, Iii

Este documento trata sobre sistemas informáticos emergentes como la inteligencia artificial. Explica conceptos clave como el machine learning, deep learning y procesamiento de lenguaje natural. También describe características de sistemas como máquinas reactivas, memoria limitada, teoría de la mente y autoconciencia. Por último, define las características del big data como volumen, velocidad, variedad y veracidad.

Cargado por

Rider Craft
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

TEI II UD10 SA6

USANDO LA IA:
SISTEMAS
INFORMÁTICOS
EMERGENTES
DOSSIER con información recogida mediante la investigación, a partir de cero.

MARCO NÚÑEZ MORENO | [email protected]

MANUEL LEÓN GONZÁLEZ | [email protected]


TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL pág. 3

2. TIPOS DE IA y TEORÍA DE LA MENTE Y AUTOCONCIENCIA. pág. 4

3. CARACTERÍSTICAS FUNDAMENTALES DEL BIG DATA pág. 5

4. BASES DE DATOS DISTRIBUIDAS Y CIBERSEGURIDAD. pág. 7

5. CONCEPTO, AMENAZAS, MEDIDAS BÁSICAS DE PROTECCIÓN. pág. 11

ÍNDICE

2|Page
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

INTRODUCCIÓN
La informática usa la programación para realizar tareas de forma automática siguiendo las
indicaciones de un algoritmo. Este algoritmo tiene el objetivo de realizar una tarea o
solucionar un problema siguiendo un conjunto de instrucciones que previamente han sido
escritas por un programador.

La Inteligencia artificial (IA) es la disciplina científica que desarrolla algoritmos cada vez más
complejos y sofisticados que, acompañados del desarrollo de modelos matemáticos, han
permitido que los ordenadores sean capaces de realizar tareas muy complejas similares a las
que realiza la inteligencia humana, como aprender y tomar decisiones.

1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL.


Realizar una clasificación fundamental de la IA es realmente complicado, debido al vertiginoso
desarrollo de esta disciplina, en la cual, cada cierto tiempo, se están produciendo nuevos
avances. No obstante, hay una serie componentes especialmente fundamentales en la IA:

El Machine learning, es una rama de la inteligencia artificial que se centra en el desarrollo de


algoritmos y modelos que permiten a las computadoras aprender a partir de datos y
experiencias pasadas, sin ser programadas explícitamente para tareas específicas.

Estos algoritmos pueden clasificarse en tres categorías principales: aprendizaje supervisado,


aprendizaje no supervisado y aprendizaje por refuerzo.

- En el aprendizaje supervisado los modelos aprenden a partir de ejemplos etiquetados,


es decir, pares de entrada y salida esperada
- En el aprendizaje no supervisado, los modelos buscan patrones en los datos sin la
ayuda de etiquetas.
- En el aprendizaje por refuerzo, los modelos aprenden a través de la interacción con un
entorno, recibiendo retroalimentación en forma de recompensas o penalizaciones.

El Deep learning, es una subárea del aprendizaje automático que utiliza redes neuronales
artificiales con múltiples capas de procesamiento para modelar y aprender representaciones
complejas de datos. Estas redes neuronales profundas han demostrado ser muy efectivas en
una variedad de tareas, como reconocimiento de imágenes, reconocimiento de voz,
procesamiento de lenguaje natural y muchos otros.

Algunas arquitecturas populares de aprendizaje profundo incluyen las redes neuronales


convolucionales (CNN) para datos de imágenes y las redes neuronales recurrentes (RNN) para
datos secuenciales, como texto y audio.

Los tipos de datos que se introducen para entrenar un modelo de deep learning son tres:

Datos de entrenamiento: sirven para entrenar cada neurona o capa de neuronas a partir de
datos conocidos, ajustando los parámetros y disminuyendo los errores que se producen.

Datos de validación: son datos diferentes a los de entrenamiento y sirven para mejorar las
predicciones de la máquina. Colaboran también en la precisión de los parámetros de las
neuronas.

3|Page
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

Datos de prueba: son datos diferentes a los de entrenamiento y validación y nos permiten
averiguar cómo se comporta la máquina ante datos no conocidos viendo su capacidad de
predicción.

El procesamiento del Lenguaje Natural (NLP), es una subdisciplina de la inteligencia artificial


que se ocupa de la interacción entre las computadoras y el lenguaje humano. El objetivo del
procesamiento del lenguaje natural es permitir a las computadoras comprender, interpretar y
generar texto y lenguaje humano de manera inteligente.

Las aplicaciones de NLP incluyen la traducción automática, el análisis de sentimientos, la


generación de texto, la extracción de información, el resumen de textos y los chatbots, entre
otros.

Una clasificación de chatbots puede ser:

• Conversacional lineal: basado en un algoritmo de tipo árbol de decisiones que implica


que sus respuestas se produzcan por etapas lineales y que sean automáticas.
• Conversacional no lineal: el DL y el PLN hacen que la máquina sea capaz de interpretar
las decisiones del usuario y el contexto, produciendo respuestas más precisas.
• Conversacional hibrida: es la combinación de las dos anteriores, lo que produce una
con- versación fluida y personalizada con el usuario.

Cada vez más empresas utilizan chatbots para comunicarse


con sus clientes, ya que aportan ventajas muy interesantes:
disponibilidad, bajo coste, respuestas automáticas,
aprendizaje continuo, etc.

Se ha avanzado mucho, pero todavía hay algunas


limitaciones para llevar una conversación fluida entre
máquina y humanos, por la dificultad de entender los
dobles senti- dos, el sarcasmo, etc.

Estos tres campos (Machine Learning, Deep Learning y NLP)


son esenciales en el ámbito de la inteligencia artificial y han
sido fundamentales en el desarrollo de aplicaciones y
sistemas inteligentes en una amplia variedad de dominios.

2. MÁQUINAS REACTIVAS, MEMORIA LIMITADA, TEORÍA DE LA


MENTE Y AUTOCONCIENCIA.
Indagaremos un poco ahora en el mundo de los tipos de sistemas en la Inteligencia Artificial,
para de esta forma tener una comprensión más profunda de las capacidades y limitaciones de
las máquinas inteligentes.

Las maquinas reactivas son sistemas de inteligencia


artificial que toman decisiones basadas únicamente
en la información del momento presente, sin
mantener un registro del pasado ni planificar el
futuro.

Son eficientes y rápidos en entornos específicos y


bien definidos, pero pueden no ser adecuados para

4|Page
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

entornos que requieran aprendizaje a largo plazo o


adaptación a cambios en el entorno.

Los sistemas de Memoria limitada son aquellos que tienen la


capacidad de recordar solo una cantidad limitada de
información sobre eventos pasados. Es decir, Estos sistemas
pueden ser capaces de aprender y adaptarse a partir de la
experiencia, pero su capacidad de almacenamiento limitada
puede afectar su capacidad para realizar tareas que requieran
un conocimiento detallado del pasado o un largo historial de
interacciones.

Son máquinas que, además de tener las capacidades de


máquinas puramente reactivas, también son capaces de
aprender de los datos históricos para tomar decisiones.

La teoría de la Mente se refiere a la capacidad de atribuir estados mentales, como creencias,


deseos e intenciones, a uno mismo y a otros individuos, y de utilizar esa comprensión para
predecir y explicar el comportamiento. En el contexto de la inteligencia artificial, la teoría de la
mente se refiere al desarrollo de sistemas que pueden entender y modelar los estados
mentales de los agentes humanos y utilizar esa comprensión en su interacción con ellos.

La autoconciencia en el contexto de la IA se refiere a la


capacidad de un sistema para tener conciencia de sí mismo, es
decir, para ser consciente de su propia existencia, estado y
capacidades. Los sistemas autoconscientes pueden ser capaces
de monitorear y evaluar su propio desempeño, identificar sus
propias limitaciones y adaptarse en consecuencia.

En conclusión, la autoconciencia se trata del nivel más alto que


puede desarrollar la inteligencia artificial. La idea es que en
este punto las máquinas sean capaces no solo de comprender
emociones, sino también de tener propias.

3. CARACTERÍSTICAS FUNDAMENTALES DEL BIG DATA


Las características más importantes del Big Data perfectamente se pueden clasificar en cuatro
magnitudes, más conocidas como las cuatro V del Big Data, relativas a volumen, variedad, velocidad y
veracidad. A estas cuatro V, podemos añadir tres más, como pueden ser la de Viabilidad y
Visualización. Pero si hablamos de V en Big Data no podemos dejar pasar la principal característica del
análisis de datos que es la V de Valor de los datos.

5|Page
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

El volumen se refiere a la cantidad de datos que son generados cada segundo, minuto y días en
nuestro entorno. Es la característica más asociada al Big Data, ya que hace referencia a las cantidades
masivas de datos que se almacenan con la finalidad de procesar dicha información, transformando los
datos en acciones.

La velocidad se refiere a los datos en movimiento por las constantes interconexiones que realizamos,
es decir, a la rapidez en la que son creados, almacenados y procesados en tiempo real.

Para los procesos en los que el tiempo resulta fundamental, tales como la detección de fraude en una
transacción bancaria o la monitorización de un evento en redes sociales, estos tipos de datos deben
estudiarse en tiempo real para que resulten útiles para el negocio y se consigan conclusiones efectivas.

La variedad se refiere a las formas, tipos y fuentes en las que se registran los datos.

Estos datos pueden ser datos estructurados y fáciles de gestionar como son las bases de datos,
o datos no estructurados, entre los que se incluyen documentos de texto, correos electrónicos,
datos de sensores, audios, vídeos o imágenes que tenemos en nuestro dispositivo móvil, hasta
publicaciones en nuestros perfiles de redes sociales, artículos que leemos en blogs, las
secuencias de click que hacemos en una misma página, etc…

Cuando hablamos de veracidad nos referimos a la incertidumbre de los datos, es decir, al


grado de fiabilidad de la información recibida.

Es necesario invertir tiempo para conseguir datos de calidad, aplicando soluciones y métodos
que puedan eliminar datos imprevisibles que puedan surgir como datos económicos,
comportamientos de los consumidores que puedan influir en las decisiones de compra.

La necesidad de explorar y planificar la incertidumbre es un reto para el Big Data que está a la
orden del día en las compañías dedicadas al análisis de datos.

La viabilidad se refiere a la capacidad de extraer información útil y significativa de los


conjuntos de datos disponibles. Implica no solo la capacidad de recopilar y almacenar grandes
cantidades de datos, sino también la capacidad de analizarlos de manera eficiente para
obtener conocimientos y valor.

Cuando hablamos de visualización nos referimos al modo en el que los datos son presentados.
Una vez que los datos son procesados (los datos están en tablas y hojas de cálculo),
necesitamos representarlos visualmente de manera que sean legibles y accesibles, para
encontrar patrones y claves ocultas en el tema a investigar. Para que los datos sean
comprendidos existen herramientas de visualización que te ayudarán a comprender los datos
gráficamente y en perspectiva contextual.

El valor es el objetivo final del análisis de Big Data. El valor se deriva de la capacidad de utilizar
los datos para obtener conocimientos significativos que puedan informar la toma de
decisiones, optimizar procesos, identificar oportunidades de negocio, mejorar la eficiencia
operativa y ofrecer ventajas competitivas.

Estas características fundamentales del Big Data son clave para comprender los desafíos y las
oportunidades que presenta el manejo y análisis de grandes volúmenes de datos en diversos contextos
y aplicaciones.

6|Page
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

4. BASES DE DATOS DISTRIBUIDAS Y


CIBERSEGURIDAD.
Actualmente, hay gran cantidad de empresas que tienen sucursales en diferentes ubicaciones
geográficas, muy alejadas entre ellas, y que manejan gran cantidad de datos.

Esto ha hecho que los


datos se tengan que
procesar en varios lugares
a la vez.

Estas empresas tenían una


base de datos centralizada
en un mismo servidor
localizado en un mismo
sitio físico.

Cuando las sucursales


debían acceder a la misma base de datos se producían múltiples problemas de comunicación,
grandes tiempos de acceso para usuarios y aplicaciones, etc. Esta es la razón del desarrollo de
las bases de datos distribuidas.

Una base de datos distribulda (BDD) es un sistema que almacena y gestiona datos que se
encuentran en diferentes ubicaciones físicas, llamadas nodos, las cuales se encuentra
interconectadas. Los datos son repartidos entre los diferentes nodos que forman la red, de tal
manera que se facilita el rápido acceso de los usuarios a los datos desde diferentes ubicaciones
geográficas.

Cada nodo funciona de forma autónoma con su propia capacidad de almacenamiento y


procesamiento. Estos nodos están interconectados a través de Internet o redes de
ordenadores, con lo cual pueden compartir los datos y trabajar de forma coordinada.

Comparación de BDD con bases de datos centralizadas


Las BDD presentan mejores características que las centralizadas, pero exigen establecer
mecanismos y herramientas para asegurar el uso de los datos de forma segura e íntegra para
usuarios y aplicaciones.

Comparamos las características de una y otra respecto a una serie de factores que son
importantes en el diseño de bases de datos.

Ubicación de datos

BD centralizadas

Los datos se almacenan en un único sitio normalmente un servidor.

BDD

Los datos se almacenan en múltiples ubicaciones físicas o nodos que están interconectadas.

Escalabilidad

BD centralizadas

7|Page
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

Al existir una sola base de datos, es más fácil que tenga limitada su capacidad de memoria o
procesamiento.

BDD

Si fuera necesario, se pueden agregar nuevos nodos para aumentar su capacidad de memoria y
procesamiento.

Disponibilidad

BD centralizadas

Si falla el servidor, la base de datos es inaccesible para usuarios y aplicaciones.

BDD

Si falla un nodo, los otros nodos pueden seguir dando acceso a los datos, lo que mejora su
disponibilidad.

Rendimiento

BD centralizadas

La carga de trabajo es asumida por un solo servidor, lo que puede provocar que su
rendimiento sea limitado.

BDD

El hecho de que los nodos puedan procesar los datos localmente y distribuirse el trabajo
mejora su rendimiento.

Latencia

BD centralizadas

Puede ser alta, ya que los usuarios o aplicaciones pueden estar muy dispersos y lejos del
servidor que tiene la BD.

BDD

Los usuarios y aplicaciones tienen más cerca los nodos, lo que mejora la transferencia de
datos.

Coordinación y sincronización

BD centralizadas

Al tener solo un servidor, es fácil coordinar y sincronizar los datos.

BDD

Los datos se utilizan en todos los nodos, lo que obliga un tratamiento especial y complejo de
estos para asegurar su integridad y consistencia.

8|Page
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

ALMACENAMIENTO DE LOS DATOS EN UNA BDD


El almacenamiento de datos en una base de datos puede adoptar diferentes enfoques, siendo
los más comunes el replicado y el fragmentado.

En el almacenamiento replicado, cada nodo contiene una copia completa de la base de datos.
Esto garantiza la disponibilidad de los datos incluso si un nodo falla, además de permitir el
procesamiento paralelo de consultas. Sin embargo, requiere actualizaciones y sincronizaciones
frecuentes entre nodos, lo que aumenta los costos de mantenimiento.

Por otro lado, en el almacenamiento fragmentado, los datos se dividen en fragmentos


distribuidos entre los nodos. Esta estrategia distribuye la carga de trabajo y evita duplicaciones
de datos, reduciendo el riesgo de inconsistencias. La fragmentación puede ser horizontal,
dividiendo las tablas en filas; vertical, dividiendo las tablas en columnas; o mixta, combinando
ambos enfoques. Cada fragmento debe contener la clave primaria para reconstruir la tabla
completa si es necesario.

Niveles de transparencia en una BDD


La transparencia en una base de datos (BDD) se refiere a la habilidad del sistema para
presentarla como una única entidad, ocultando la complejidad interna de nodos, fragmentos y
réplicas. La arquitectura de la BDD determina este nivel de transparencia, vital para la
interacción fluida entre usuarios y aplicaciones.

Esta transparencia se logra a través de la independencia de datos, tanto a nivel lógico como
físico. La independencia lógica asegura que cambios en la estructura de los datos no afecten el
funcionamiento de las aplicaciones. Por otro lado, la independencia física permite la
redistribución de datos sin impactar la operatividad de las aplicaciones. Entre las diferentes
transparencias destacan:

• Transparencia de localización: Los usuarios pueden acceder a los datos sin necesidad
de conocer su ubicación física.
• Transparencia de fragmentación: Los usuarios acceden a los datos sin preocuparse por
cómo están fragmentados, el sistema se encarga de traducir las consultas a nivel de
fragmentos.
• Transparencia de replicación: El sistema gestiona múltiples réplicas de datos,
decidiendo qué copia utilizar y manteniendo la coherencia entre ellas.

Ciberseguridad

La ciberseguridad es esencial en la
actualidad debido a nuestra
creciente dependencia de la
tecnología. Tanto individuos como
organizaciones confían en sistemas
informáticos y redes para diversas
actividades diarias, desde
transacciones financieras hasta
comunicaciones personales y
comerciales.

9|Page
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

Sin embargo, esta interconexión también ha dado lugar a un aumento en los ciberdelitos,
donde los delincuentes buscan explotar vulnerabilidades para obtener beneficios económicos
o causar daño. Por lo tanto, la ciberseguridad se ha vuelto crítica para proteger datos y
garantizar la continuidad de las operaciones comerciales. Algunas amenazas comunes
incluyen:

Denegación de servicio (DDoS)


El ataque de denegación de servicio (DDoS) consiste en inundar un sitio web o red con tráfico
falso para sobrecargar el servidor y hacerlo inaccesible para los usuarios legítimos. Se realiza
mediante equipos infectados por malware, convirtiéndolos en máquinas zombis que atacan
simultáneamente. Este conjunto de máquinas infectadas se llama botnet.

Phishing
Se engaña a los usuarios para que proporcionen información confidencial a través de correos
electrónicos fraudulentos o sitios web falsos. Uno de los más habituales es recibir en el correo
electrónico algún mensaje suplantando la comunicación de un banco con el objetivo de
intentar conseguir contraseñas o información sensible de tipo financiero para sustraer el
dinero del usuario.

Malware
El malware es un software malicioso que se utiliza para infectar los sistemas informáticos y
robar información confidencial o controlar el sistema infectado. La mayoría de las veces, los
creadores de este tipo de software buscan obtener un beneficio económico. Puede afectar a
cualquier dispositivo que esté conectado a Internet y tenga un sistema operativo sensible al
malware, como los móviles, servidores, etc.

Los virus son programas que infectan sin permiso del usuario, propagándose a través de
archivos ejecutables o sectores de almacenamiento.

Los gusanos buscan replicarse en redes, ralentizando el sistema y llevando otros malware. Los
troyanos instalan aplicaciones maliciosas para el control remoto del dispositivo.

Los hijackers secuestran elementos de Internet, como URL, redirigiendo a páginas


manipuladas para robar datos.

El pharming altera servidores DNS, dirigiendo a páginas de malware para robar información. El
spam es comunicación no solicitada, a menudo con malware.

Los hoaxes son bulos con diversos objetivos, como recopilar información personal.

10 | P a g e
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

5. CONCEPTO, AMENAZAS, MEDIDAS BÁSICAS DE


PROTECCIÓN.
Para proteger mejor su organización, necesita saber contra qué protegerse y mantener a todos
en la organización informados y educados sobre las últimas amenazas de ciberseguridad. Aquí
hay cinco amenazas comunes y cómo puede prevenirlas.

Ataques DNS
El Sistema de nombres de dominio (DNS), que traduce los dominios de sitios web a direcciones
IP, transporta una enorme cantidad de datos, lo que lo convierte en una de las mejores
herramientas de un actor de amenazas para llevar a cabo ataques. Sin embargo, muchas
organizaciones ven el DNS como un protocolo simple que no se puede usar para causar daño y,
por lo tanto, no ven la necesidad de una solución de seguridad de DNS.

Desafortunadamente, el 85 % de las amenazas modernas actuales abusan del DNS para


actividades maliciosas, según el equipo de investigación de amenazas de Unit 42 de Palo Alto
Networks. Sin una solución de seguridad adecuada para defenderse contra el tráfico de DNS,
las organizaciones corren el riesgo de robo de datos, phishing u otros ataques maliciosos.
Entonces, ¿qué necesita para protegerse contra estos ataques DNS modernos? Una solución
completa de seguridad de DNS requiere visibilidad del tráfico de DNS, protección basada en la
nube, acciones basadas en categorías y otros elementos esenciales para protegerse
completamente contra los ataques de DNS.

Malware
Existen opciones para protegerse contra el malware, incluidos los firewalls de próxima
generación (NGFW), los sistemas de prevención de intrusiones (IPS), las capacidades de
inspección profunda de paquetes (DPI), antivirus y antispam, redes privadas virtuales (VPN),
filtrado de contenidos y sistemas de prevención de fuga de datos.

En última instancia, se necesita un enfoque multitécnico, así como un análisis en tiempo real
para prevenir las amenazas más evasivas. Aunque muchas organizaciones recurren a
soluciones de sandboxing de red para el análisis de malware, estas soluciones tradicionales
afectan la productividad del usuario y tardan en predecir veredictos.

Ataques de phishing
El phishing es la amenaza más común y generalizada a la que se enfrentan las organizaciones
en la actualidad. Es una forma de ingeniería social en la que los atacantes intentan engañar a
un usuario para que haga clic en un enlace malicioso o descargue un archivo adjunto que
contiene malware.

A medida que aumenta el volumen de los ataques de phishing, debido a la facilidad de


implementación y disponibilidad de kits de phishing de bajo costo, es más imperativo que
nunca prevenir el phishing a través de la educación del usuario, además de implementar una
solución de filtrado de URL que pueda analizar el enlace o archivo desconocido e implementar
políticas para evitar el acceso si se determina que es malicioso.

Sin embargo, el filtrado de URL tradicional carece de las capacidades para prevenir amenazas
nuevas y evasivas basadas en la web. Cualquier solución debe poder analizar el tráfico de
clientes en vivo a medida que ingresa a su red, con la capacidad de prevenir amenazas en
tiempo real.

11 | P a g e
TEI II UD10 SA6 USANDO LA IA: UD12 SISTEMAS INFORMÁTICOS EMERGENTES

Dispositivos no seguros (IoT)


Un dispositivo IoT es cualquier activo físico conectado a la red que no sea una computadora. Si
bien los equipos de TI de las empresas protegen los dispositivos de TI estándar con tecnología
y protocolos de seguridad de red tradicionales, asegurar el IoT es un desafío sin resolver en
muchas organizaciones. Los sistemas de ciberseguridad estándar son incapaces de reconocer e
identificar los tipos específicos de dispositivos IoT o los perfiles de riesgo únicos y los
comportamientos esperados asociados con ellos.

Además, los dispositivos IoT pueden implementarse en cualquier centro de negocios, evitando
así los controles y procesos típicos de seguridad de la red. Todos estos dispositivos IoT
conectados a la red (impresoras, cámaras, sensores, proyectores, teléfonos IP, HVAC,
electrodomésticos inteligentes, etc) utilizan diferentes hardware, chipsets, sistemas operativos
y firmware que introducen vulnerabilidades y riesgos. Sin una seguridad sólida de IoT,
cualquier dispositivo conectado es vulnerable a la violación, el compromiso y el control por
parte de un actor malicioso para, en última instancia, infiltrarse en la red, robar datos
empresariales y derribar sistemas.

12 | P a g e

También podría gustarte