0% encontró este documento útil (0 votos)
25 vistas12 páginas

Inteligencia Artificial

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
25 vistas12 páginas

Inteligencia Artificial

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

INTELIGENCIA ARTIFICIAL

CONCEPTO

La inteligencia artificial (IA) es una rama de la informática que busca crear


sistemas capaces de realizar tareas que normalmente requieren inteligencia humana. Estas tareas
incluyen el reconocimiento de voz, el procesamiento del lenguaje natural, el aprendizaje, la
planificación, la resolución de problemas, entre otras.
El concepto central de la IA se basa en el desarrollo de algoritmos y modelos
matemáticos que permiten a las máquinas procesar datos, reconocer patrones, aprender de la
experiencia y tomar decisiones o recomendaciones sin intervención humana constante.
La IA utiliza varias técnicas, como el aprendizaje automático (machine
learning), en el cual los sistemas aprenden de grandes volúmenes de datos; y el
aprendizaje profundo (deep learning), que emplea redes neuronales avanzadas para
mejorar el reconocimiento de patrones complejos.
En el Reglamento (UE) 2024/1689, la definición de Inteligencia
Artificial (IA) es la siguiente:

“Un sistema de IA es un sistema basado en una máquina que está diseñado para
operar con varios niveles de autonomía y tiene la capacidad de adaptarse una vez desplegado.
Este sistema recibe información de entrada y, con base en ella, produce resultados como
predicciones, recomendaciones, decisiones o contenido, que pueden influir en entornos físicos o
virtuales.”

ORIGENES

Alan Turing (1912-1954) es considerado uno de los fundadores de la informática teórica


y de la inteligencia artificial (IA). Su trabajo sentó las bases de muchos conceptos clave en
computación y pensamiento lógico, marcando el inicio de lo que hoy conocemos como IA.
Algunos de sus principales aportes son los siguientes:

1. La Máquina de Turing (1936)

Turing propuso un modelo teórico de una máquina que podía realizar cualquier cálculo
matemático concebible. La Máquina de Turing es un concepto abstracto que describe una
máquina capaz de leer y escribir en una cinta infinita y seguir reglas preestablecidas para
manipular símbolos. Con esta máquina, Turing demostró que cualquier problema que pudiera
resolverse mediante un algoritmo era resoluble por una computadora universal. Este modelo
sentó las bases para la teoría de la computación, permitiendo que los principios de la
informática se desarrollaran sobre un marco matemático riguroso.
2. Turing y la Segunda Guerra Mundial
Durante la Segunda Guerra Mundial, Turing trabajó en Bletchley Park, el centro
británico de descifrado de códigos, donde lideró el equipo que logró descifrar el código Enigma
de los nazis. Su trabajo en esta área no solo salvó millones de vidas al acelerar el fin de la
guerra, sino que también resultó crucial en el desarrollo de las primeras computadoras
electrónicas, como el Colossus. Esta experiencia impulsó su interés en el procesamiento de
información y en la posibilidad de replicar la inteligencia humana en máquinas.
3. La Prueba de Turing (1950)

La Prueba de Turing fue propuesta por el matemático y pionero de la computación


Alan Turing en 1950 en su influyente artículo titulado "Computing Machinery and
Intelligence" (en español, Maquinaria computacional e inteligencia). Este artículo fue
publicado en la prestigiosa revista filosófica británica Mind, donde Turing planteó por primera
vez de manera formal la pregunta "¿Pueden las máquinas pensar?".

Turing decidió reformular esta compleja pregunta a través de lo que él llamó el "juego
de imitación", un experimento que buscaba simplificar la cuestión de la inteligencia en las
máquinas. Así, introdujo la Prueba de Turing como una forma de evaluar si una máquina
puede exhibir un comportamiento inteligente similar al humano.
El "juego de imitación"

La prueba o juego de imitación funciona de la siguiente manera:


1. Participantes: Un humano, una máquina y un interrogador (otro humano).

2. Interacción: El interrogador se comunica por escrito con los otros dos participantes
(la máquina y el humano), sin verlos ni saber quién es quién.
3. Objetivo: La tarea del interrogador es formular preguntas a ambos para intentar
identificar cuál de los dos es la máquina y cuál el humano, mientras que la máquina
intenta que el interrogador crea que ella es el humano.
4. Criterio de éxito: Si la máquina logra engañar al interrogador, haciéndole creer que
es un humano, entonces se dice que la máquina ha "pasado" la Prueba de Turing y
muestra una forma de inteligencia.
Propósito de la Prueba de Turing

La Prueba de Turing no define la inteligencia de manera absoluta, sino que propone una
evaluación práctica para determinar si una máquina puede simular el comportamiento humano
de manera convincente. Este experimento es considerado uno de los primeros intentos de
establecer un criterio para la inteligencia artificial.

Turing propuso esta prueba como una alternativa a intentar definir el pensamiento en
términos abstractos, sosteniendo que, si una máquina podía imitar con éxito el comportamiento
humano en la interacción, se podría considerar que muestra "inteligencia" en sentido funcional.
4. Turing y el Concepto de Inteligencia Artificial

Si bien Turing nunca usó el término "inteligencia artificial", sus ideas y su visión de las
máquinas capaces de realizar tareas humanas influyeron profundamente en este campo. Su
enfoque pionero inspiró a generaciones de científicos en el desarrollo de algoritmos y máquinas
capaces de simular el pensamiento y la resolución de problemas, principios básicos de la IA
actual.
5. Legado e Influencia
El trabajo de Turing continúa siendo fundamental en la IA y la informática. Su enfoque
sobre la lógica y el procesamiento simbólico es la base de muchas aplicaciones actuales de la
IA, especialmente en el procesamiento del lenguaje y en los sistemas de toma de decisiones.
Además, su perspectiva sobre la posibilidad de "pensamiento" en las máquinas abrió el camino
para debates éticos y filosóficos que continúan hoy.
Años 50-60: Primeros Algoritmos de IA y Creación de Lenguajes de
Programación

 Nacimiento de la IA como disciplina (1956): La IA se define como campo en


la conferencia de Dartmouth, organizada por John McCarthy, Marvin Minsky, Nathaniel
Rochester y Claude Shannon, quienes exploraron la posibilidad de que las máquinas
realizaran tareas similares a las humanas.
 Lenguaje de programación LISP: En 1958, John McCarthy desarrolló LISP
(LISt Processing), el primer lenguaje de programación específico para IA. LISP se
destacó en la manipulación de símbolos, fundamentales en el desarrollo de sistemas de
procesamiento de lenguaje natural y razonamiento simbólico.
 Primeros algoritmos de búsqueda y resolución de problemas: Se
crearon algoritmos básicos de búsqueda, como el algoritmo minimax (usado en
juegos de dos jugadores), y se diseñaron las primeras máquinas capaces de resolver
problemas y demostrar teoremas matemáticos.
Años 80: Crecimiento de los Sistemas Expertos y la IA Aplicada en
Empresas

 Sistemas expertos: Los sistemas expertos fueron uno de los primeros usos
comerciales de la IA. Estos sistemas se diseñaban para simular el conocimiento y las
habilidades de expertos humanos en campos específicos, como la medicina (por
ejemplo, el sistema MYCIN para diagnóstico de enfermedades infecciosas) o el
análisis financiero.
 Motor de inferencia: Los sistemas expertos usaban reglas if-then (si-entonces) para
razonar y tomar decisiones en áreas muy específicas. Ayudaron a automatizar
diagnósticos médicos, análisis de crédito y consultoría en campos especializados.
 Reconocimiento de Patrones: La IA se utilizó en aplicaciones de reconocimiento
de patrones, como la clasificación de imágenes y la identificación de caracteres (OCR).
Esto permitió avances en la automatización de procesos como la lectura de documentos.
 Robótica: Se implementaron algoritmos de IA en robótica para mejorar la navegación
y la manipulación de objetos en entornos industriales, facilitando la automatización de
fábricas.
Empresas como Fanuc y Kawasaki desarrollaron robots de brazo mecánico que
utilizaban IA para realizar tareas complejas en fábricas, como ensamblaje y
manipulación de piezas. Un ejemplo fue el uso de robots en la industria automotriz,
donde los robots programados con algoritmos de IA realizaban soldaduras y
ensamblajes precisos, aumentando la eficiencia y seguridad en las líneas de producción.
 Financiación y expectativas: Los sistemas expertos tuvieron un gran impacto
comercial y atrajeron inversión, aunque muchas expectativas resultaron exageradas, lo
que llevó a un declive temporal en el interés por la IA a finales de la década de los 80.
Años 90

 Asistentes Virtuales: Los primeros asistentes virtuales comenzaron a aparecer,


aunque de forma rudimentaria. Programas como "ELIZA", que simulaban
conversaciones humanas, abrieron el camino para el desarrollo de chatbots.
 Minería de Datos: La IA se utilizó para la minería de datos, permitiendo a las
empresas analizar grandes volúmenes de datos para identificar patrones y tendencias
que podían informar decisiones de negocio.
Por ejemplo, Walmart implementó técnicas de minería de datos para optimizar el
inventario de productos en sus tiendas, analizando los patrones de compra de los
clientes. En marketing, American Express usó minería de datos para detectar
fraudes en las transacciones de sus tarjetas.
 Videojuegos: Se empezó a incorporar la IA en el diseño de videojuegos, donde se
crearon enemigos y personajes no jugadores que podían adaptarse y reaccionar a las
acciones del jugador, mejorando la experiencia de juego.
Un ejemplo fue el videojuego Half-Life (1998), en el que los enemigos eran capaces
de colaborar para rodear al jugador o tomar decisiones defensivas, gracias a algoritmos
de IA que les permitían adaptarse a las acciones del jugador. Otro ejemplo es el juego
The Sims (2000), donde los personajes controlados por IA tenían comportamientos y
preferencias propias, reaccionando de manera autónoma a los eventos dentro del juego.
 Reconocimiento de Voz: Los primeros sistemas de reconocimiento de voz
empezaron a desarrollarse y a comercializarse, aunque con limitaciones. Estos sistemas
eran utilizados en aplicaciones de dictado y en la automatización de líneas telefónicas.
Un ejemplo temprano fue el programa Dragon NaturallySpeaking, lanzado en
1997, que permitía a los usuarios dictar texto directamente a la computadora, lo que fue
revolucionario para profesionales que buscaban agilizar la redacción de documentos.
Otro ejemplo práctico fue ViaVoice de IBM, que ofrecía funcionalidades de dictado y
comandos de voz, usados en centros de llamadas y aplicaciones de accesibilidad.

Años 2000 en Adelante: Auge del Aprendizaje Automático y Redes


Neuronales Profundas

 Aprendizaje automático (Machine Learning): El desarrollo de técnicas de


machine learning permitió que los sistemas aprendieran patrones y tomaran decisiones
basadas en datos. Algoritmos como el árbol de decisión, máquinas de vectores
soporte (SVM) y algoritmos de clustering empezaron a ganar popularidad.

 Big Data y Potencia de Cómputo: La explosión de datos en internet y el


aumento de la capacidad de cómputo impulsaron técnicas de aprendizaje
profundo (deep learning) en la década de 2010, especialmente con la llegada de
GPUs que hicieron más eficiente el entrenamiento de redes neuronales complejas.
 Redes neuronales profundas: Estas redes, inspiradas en el cerebro humano, se
aplicaron en tareas complejas como el reconocimiento de voz y de imágenes.
Algoritmos como las redes neuronales convolucionales (CNN) para imágenes
y las redes recurrentes (RNN) para secuencias y texto transformaron la IA en
campos como la visión por computadora y el procesamiento del lenguaje natural.
Presente: IA en Análisis de Datos, Medicina, Ciberseguridad y Más

 Análisis de datos: La IA se ha convertido en una herramienta clave para el análisis


de grandes volúmenes de datos. Se usa en marketing, investigación de mercado y
servicios financieros, permitiendo análisis predictivos, segmentación de clientes y
optimización de precios.
 Medicina y salud: La IA ha avanzado en áreas como el diagnóstico por imágenes,
donde redes neuronales detectan patologías en radiografías y resonancias. También es
central en la medicina personalizada, facilitando tratamientos adaptados a las
características genéticas de cada paciente.
 Ciberseguridad: Los sistemas de IA ayudan en la detección de amenazas y fraudes,
reconociendo patrones anómalos en el tráfico de red y proporcionando alertas
tempranas. También se usan en el análisis de vulnerabilidades y en la respuesta
automatizada a incidentes de seguridad.
 Vehículos autónomos: La IA es fundamental en la conducción autónoma, donde
tecnologías como visión por computadora y toma de decisiones automatizada permiten
que los vehículos operen sin intervención humana.
 Procesamiento del lenguaje natural: La IA mejora las interacciones entre
humanos y máquinas a través de asistentes virtuales (como Siri y Alexa), servicios de
traducción automática, y chatbots, facilitando aplicaciones en áreas como atención al
cliente y soporte técnico.

Mayores riesgos de la IA

1. Responsabilidad y Seguridad
 Responsabilidad por daños: ¿Quién es responsable si una IA causa daño o falla
(como un vehículo autónomo en un accidente)? Esto plantea dudas sobre si la
responsabilidad recae en el desarrollador, el usuario, o incluso el propio sistema de IA.
 Seguridad del usuario: Las leyes deben asegurar que los sistemas de IA operen de
manera segura y no representen un riesgo para las personas.

Caso Uber (2018): Un vehículo autónomo de Uber atropelló y causó la muerte de


una peatona en Arizona, EE. UU. El accidente generó preguntas sobre la
responsabilidad en la IA: ¿recae en el fabricante del vehículo, en Uber como la empresa
operadora, o en los diseñadores del sistema de IA?
Tesla Autopilot: Se han registrado varios accidentes con el sistema Autopilot de
Tesla, algunos de ellos fatales. En estos casos, el debate se centra en si la
responsabilidad es del conductor, de Tesla como fabricante, o del software de
conducción autónoma, planteando la necesidad de regulaciones claras en seguridad y
responsabilidad en IA.
2. Privacidad y Protección de Datos

 Recolección y uso de datos: Los sistemas de IA, especialmente aquellos que usan
big data, requieren grandes cantidades de datos personales. Esto plantea riesgos de
privacidad, y la necesidad de regulación para proteger la información sensible de los
usuarios.
 Toma de decisiones automatizadas: La GDPR (UE) protege a las personas de
decisiones completamente automatizadas, especialmente cuando afectan derechos
fundamentales, como créditos o empleo.
Caso Clearview AI (2020): Clearview AI, una empresa de reconocimiento facial,
fue criticada y demandada por recolectar imágenes de personas sin su consentimiento
en plataformas públicas como redes sociales. Esto planteó problemas de privacidad y
llevó a que la empresa enfrentara demandas y regulaciones en varios países, incluidos
EE. UU., Canadá y la Unión Europea.
Escándalo de Cambridge Analytica (2018): Si bien no es un caso de IA puro,
este caso es relevante porque Cambridge Analytica usó datos de millones de usuarios de
Facebook sin consentimiento para crear perfiles psicológicos. Estos se emplearon luego
en campañas de publicidad política, lo que destacó los riesgos de recolección masiva de
datos para manipulación y toma de decisiones sin el consentimiento del usuario.
3. Discriminación y Sesgos

 Sesgo algorítmico: Los sistemas de IA pueden perpetuar o incluso amplificar sesgos


si son entrenados con datos históricos discriminatorios. Esto es problemático en áreas
como el empleo, la justicia y los seguros, donde las decisiones pueden afectar a
minorías y grupos vulnerables.
 Equidad y no discriminación: Las leyes intentan garantizar que la IA se use de
manera justa, lo que requiere transparencia y mecanismos de control de sesgos.
Caso COMPAS en el sistema judicial de EE. UU.: COMPAS es un sistema
de IA que se utiliza en tribunales para evaluar el riesgo de reincidencia de los acusados.
Se descubrió que el sistema presentaba sesgos raciales, ya que era más probable que
clasificara a personas afroamericanas como de alto riesgo en comparación con personas
blancas en condiciones similares. Este caso muestra cómo los sesgos en los datos
pueden afectar decisiones judiciales y perpetuar injusticias.
Fuente:https://www.dw.com/es/inteligencia-artificial-en-los-tribunales-c%C3%B3mo-
funciona/a-47185445
Amazon y su IA de contratación (2018): Amazon desarrolló una IA para
ayudar a evaluar solicitudes de empleo, pero esta presentó sesgos de género, ya que
daba preferencia a candidatos masculinos. Esto ocurrió porque la IA había sido
entrenada con datos históricos que reflejaban un sesgo en favor de los hombres.
Amazon abandonó el sistema, destacando la necesidad de transparencia y supervisión
en los procesos de selección.
Fuente:https://www.elmundo.es/tecnologia/
2018/10/11/5bbe3a12e5fdea0f578b467e.html
Reconocimiento facial en minorías: Los sistemas de reconocimiento facial,
como los desarrollados por empresas como IBM, Microsoft y Amazon, han mostrado
altos niveles de error en la identificación de minorías raciales y mujeres, en
comparación con personas de raza blanca. Esto ha llevado a críticas y a la decisión de
algunas empresas de dejar de vender o usar esta tecnología en cuerpos de seguridad,
ante el riesgo de discriminación y errores judiciales.
4. Transparencia y Explicabilidad
¿Por qué se le llama "caja negra"?

El término "caja negra" viene de la idea de que podemos observar las entradas y las
salidas de un sistema, pero no podemos ver ni entender el proceso interno que conecta
ambos. En el caso de muchos modelos de IA, especialmente los de aprendizaje
profundo que utilizan redes neuronales, el modelo recibe datos (como imágenes, texto o
números), realiza numerosos cálculos internos y luego produce una respuesta o
decisión. Sin embargo, el proceso intermedio es extremadamente complejo, a menudo
basado en miles o millones de parámetros ajustados automáticamente durante el
entrenamiento, lo que hace que el razonamiento detrás de la salida no sea obvio o
intuitivo para los humanos.
¿Por qué es un problema que la IA funcione como una "caja negra"?

En ámbitos críticos como la salud, las finanzas o el ámbito legal, las decisiones de los
sistemas de IA pueden tener un impacto profundo en la vida de las personas, por lo que
es importante que sean transparentes y explicables. Algunos problemas clave de la caja
negra incluyen:
1. Falta de confianza: Cuando los usuarios no pueden entender cómo un sistema de
IA toma decisiones, es difícil confiar plenamente en sus recomendaciones. Por ejemplo,
si un modelo de IA en salud sugiere un tratamiento específico sin explicar claramente el
porqué, los médicos y pacientes pueden dudar en seguirlo.
2. Problemas legales y éticos: En algunos casos, las regulaciones (como el
Reglamento General de Protección de Datos o GDPR en Europa) exigen el "derecho a
la explicación", lo que significa que las personas tienen derecho a saber cómo y por qué
una decisión automatizada los afecta. Si un sistema de IA no puede proporcionar una
explicación, podría estar incumpliendo con estas leyes.
3. Dificultades para identificar errores: En una caja negra, puede ser difícil
descubrir si un sistema está cometiendo errores o basando sus decisiones en patrones
sesgados o incorrectos. Esto es crítico en sectores donde el error puede causar daños
graves, como en la salud. Por ejemplo, si una IA diagnostica incorrectamente una
enfermedad, la opacidad del sistema puede hacer difícil identificar qué información fue
malinterpretada o si hubo sesgo en los datos utilizados.
Sistemas de IA en salud: IBM Watson for Oncology fue diseñado para ayudar a
los médicos en el tratamiento del cáncer, pero ha enfrentado críticas porque algunas de
sus recomendaciones no pudieron ser explicadas adecuadamente. Los profesionales de
la salud tuvieron dificultades para comprender y justificar algunas decisiones de
Watson, lo que generó desconfianza en su aplicación en la práctica clínica.

5. Propiedad intelectual y derechos de autor

 Creación de contenido: La IA puede generar música, arte o textos, pero surge la


pregunta: ¿quién es el propietario de esos contenidos? Los marcos legales aún no están
claros sobre si los derechos recaen en el creador del sistema, en el usuario o en la IA
misma.
 Uso de obras protegidas: Las IA pueden entrenarse usando contenido con
derechos de autor, lo que plantea problemas de uso justo y reproducción no autorizada.

Obras de arte de IA y derechos de autor: En 2018, la obra de arte Edmond de


Belamy, generada por un algoritmo de IA creado por el colectivo francés Obvious, se
vendió por 432,500 dólares en una subasta de Christie’s. Esto planteó preguntas sobre
quién era el verdadero creador: ¿la IA, los desarrolladores del algoritmo o el colectivo
que utilizó el sistema?
Casos de IA entrenada con obras protegidas: En el campo de la música,
artistas como Jay-Z han presentado demandas para evitar que sus voces sean utilizadas
por sistemas de IA que generan nuevas canciones. Algunos modelos de IA en el arte
también se entrenaron usando imágenes de obras con derechos de autor, lo que generó
controversia sobre si esto infringe la propiedad intelectual.
Entrenamiento de modelos de IA con artículos protegidos: The New
York Times ha tomado medidas para proteger sus derechos de autor frente al uso de su
contenido en el entrenamiento de modelos de inteligencia artificial. Por ejemplo,
algunos modelos de lenguaje se han entrenado utilizando grandes bases de datos de
textos de internet, que pueden incluir artículos de publicaciones protegidas como los de
The New York Times. La empresa ha iniciado acciones legales y tomado medidas para
limitar el uso de su contenido, incluso prohibiendo la recolección de datos de sus
artículos por herramientas de IA, alegando que los modelos comerciales no pueden
beneficiarse de su contenido sin permiso y compensación.
Iniciativas de suscripción y control de acceso: Para proteger su contenido de
copias y reutilización no autorizada, The New York Times ha reforzado sus sistemas de
acceso y suscripciones, argumentando que el uso no autorizado por parte de la IA para
entrenarse compromete sus derechos. Este tipo de contenidos de alta calidad y
rigurosamente verificados representan un recurso valioso y una inversión considerable
que desean proteger frente a la explotación gratuita.
Fuente:https://www.abc.es/tecnologia/wall-street-journal-new-york-post-demandan-
20241022100824nt.html?ref=https%3A%2F%2Fwww.abc.es%2Ftecnologia%2Fwall-
street-journal-new-york-post-demandan-20241022100824-nt.html
Propiedad Intelectual y Derechos de Autor en el Caso de YouTube

Uso no autorizado de contenido protegido: En YouTube, muchos creadores


han utilizado contenidos protegidos por derechos de autor para generar nuevos videos,
lo que ha provocado que grandes empresas y creadores individuales denuncien
infracciones. YouTube emplea una herramienta de IA llamada Content ID, que
escanea los videos en busca de contenido protegido, como música, videos o clips.
Cuando detecta una infracción, el creador original puede decidir si bloquea, monetiza o
permite el uso compartido del contenido, ayudando a proteger los derechos de los
creadores.
Contenido generado por IA y derechos de autor: Con la creciente capacidad
de las IA para crear contenido como música o videos, han surgido debates sobre la
originalidad y propiedad de estos materiales. Algunos creadores han utilizado IA para
replicar la música o estilo de artistas conocidos y luego suben estos contenidos a
YouTube. Esto plantea dudas sobre si el trabajo debe ser tratado como una obra
derivada (que requiere autorización del propietario original) o si representa un trabajo
nuevo y original. YouTube ha tenido que responder a estos conflictos adaptando su
política de derechos de autor y estableciendo pautas para la creación de contenido
mediante IA en su plataforma.

6. Derechos Laborales

 Automatización y desplazamiento laboral: El uso de IA para automatizar


trabajos plantea cuestiones sobre la protección de los trabajadores y la posible
necesidad de redes de seguridad social para aquellos afectados.
Por ejemplo, en la manufactura, los robots han sustituido tareas de ensamblaje que antes
realizaban trabajadores humanos, mientras que en sectores como el servicio al cliente,
los chatbots están asumiendo funciones que solían llevar a cabo personas. Esto plantea
preguntas críticas sobre la protección de los trabajadores y cómo se adaptará el
mercado laboral.
 Monitoreo y privacidad laboral: Las IA pueden monitorear el rendimiento de
los empleados, lo que plantea preocupaciones sobre la privacidad en el lugar de trabajo.
7. Ética y Control en Tareas Críticas

 Decisiones en áreas sensibles: En sectores como la medicina, el transporte (por


ejemplo, vehículos autónomos) y la justicia (como los sistemas de predicción de
delincuencia), las decisiones automatizadas deben ser seguras y éticas. Esto es crítico
porque un error en estos ámbitos puede tener consecuencias graves.
Supervisión humana: La necesidad de supervisión humana es esencial para
evitar errores graves o injusticias. Por ejemplo, en medicina, si un sistema de IA sugiere
un tratamiento que resulta ser inadecuado, la responsabilidad recae en el médico, quien
debe poder interpretar y cuestionar las recomendaciones del sistema. En el ámbito
judicial, los algoritmos que evalúan la reincidencia de un delincuente pueden perpetuar
sesgos si no son supervisados adecuadamente por humanos.
Implicaciones éticas: Los sistemas de IA deben ser diseñados y evaluados de
manera que prioricen la justicia y la equidad. Esto incluye considerar cómo se recopilan
y utilizan los datos, y asegurarse de que los modelos no perpetúen sesgos raciales o
socioeconómicos.

 IA autónoma en armas: El desarrollo de sistemas de armas autónomas que


utilizan inteligencia artificial ha suscitado serias preocupaciones éticas y legales. La
idea de que un sistema pueda tomar decisiones sobre el uso de la fuerza sin intervención
humana plantea múltiples dilemas éticos.
Uso de la fuerza sin supervisión: La capacidad de la IA para decidir cuándo y
cómo atacar puede llevar a consecuencias devastadoras si los sistemas fallan o si se
toman decisiones erróneas. Los críticos argumentan que la automatización de la guerra
podría reducir la responsabilidad y aumentar el riesgo de conflictos, ya que las
máquinas podrían ser programadas para actuar sin el juicio humano que suele mitigar la
violencia.
Regulaciones internacionales: Actualmente, hay un debate creciente sobre la
necesidad de regulaciones internacionales que prohíban o limiten el desarrollo y
uso de armas autónomas. Organizaciones y activistas abogan por un marco legal que
asegure que siempre haya un control humano sobre las decisiones de combate,
buscando prevenir un futuro en el que las máquinas puedan decidir sobre la vida y la
muerte.

REGLAMENTO EUROPEO DE IA

El Reglamento de IA tiene por objeto garantizar que los sistemas de inteligencia


artificial (IA) se desarrollen y utilicen de manera responsable.
Las normas imponen obligaciones a los proveedores y los responsables del despliegue
de tecnologías de IA y regulan la autorización de los sistemas de inteligencia artificial en el
mercado único de la UE.
El Reglamento aborda los riesgos relacionados con la IA, como los sesgos, la
discriminación y las lagunas en la rendición de cuentas, promueve la innovación y fomenta la
adopción de la IA.
Dado que se trata de la primera norma jurídica del mundo encaminada a regular la IA,
las disposiciones del Reglamento de la UE podrían convertirse en un referente a escala mundial
en materia de regulación de la IA, como lo es el Reglamento General de Protección de Datos
(RGPD) en materia de privacidad de los datos, y promover una inteligencia artificial ética,
segura y fiable en todo el mundo.
La entrada en vigor del RIA es el 01/08/2024 y será de aplicación a los dos años, es
decir, el 01/08/2026.
Ámbito de Aplicación

 Proveedores y distribuidores de IA: Incluye a aquellos que comercializan, desarrollan o


implementan sistemas de IA en la Unión Europea, independientemente de su ubicación.
 Responsables del despliegue de IA: Aquellos establecidos en la UE que despliegan
sistemas de IA y aquellos fuera de la UE cuando los resultados de la IA se utilicen
dentro de la Unión.
 Exclusiones: El reglamento excluye sistemas de IA utilizados exclusivamente para fines
militares, de seguridad nacional, o desarrollados únicamente para investigación y
desarrollo científicos.

A mayor riesgo, normas más estrictas

El RIA aborda los riesgos asociados a usos específicos de la IA, los clasifica en 4 niveles de
riesgo y establece normas diferentes para cada nivel.
 Riesgo Minimo o nulo: Los juegos o los filtros de correo no deseado basados en la
IA pueden utilizarse libremente, puesto que no están regulados ni se ven afectados por
el Reglamento de IA de la UE.
 Riesgo Limitado: los chatbots o los sistemas de IA generadores de contenido, están
sujetos a obligaciones de transparencia, como la de informar a los usuarios de que su
contenido se ha generado mediante IA para que puedan tomar decisiones con
conocimiento de causa sobre su uso posterior.
 Riesgo Alto: diagnóstico de enfermedades, la conducción autónoma y la
identificación biométrica de personas implicadas en actividades delictivas u objeto de
investigaciones penales, deben cumplir unos requisitos y obligaciones estrictos para
acceder al mercado de la UE. Entre ellos se incluyen unas pruebas rigurosas,
transparencia y supervisión humana.
 Riesgo Inaceptable: Están prohibidos, por ejemplo, la manipulación cognitiva
conductual, la actuación policial predictiva, el reconocimiento de emociones en lugares
de trabajo y centros educativos, y la puntuación ciudadana, así como —con algunas
excepciones— el uso en los espacios públicos, por parte de las autoridades garantes del
cumplimiento del Derecho, de sistemas de identificación biométrica remota en tiempo
real, como el reconocimiento facial.

Estructura de gobernanza

Para garantizar una aplicación adecuada, el Reglamento de IA crea varios órganos de


gobierno:
 una Oficina de IA dentro de la Comisión Europea, para garantizar el cumplimiento de
las normas comunes en toda la UE;
 un grupo de expertos científicos independientes, a fin de apoyar las actividades de
garantía del cumplimiento;
 un Comité de IA, conformado por representantes de los Estados miembros, para
asesorar y asistir a la Comisión y a los Estados miembros en la aplicación coherente y
eficaz del Reglamento de IA;
 un foro consultivo para que las partes interesadas proporcionen conocimientos técnicos
al Comité de IA y a la Comisión.

Sanciones
Multas Administrativas:

Podrían alcanzar un porcentaje del ingreso global de la empresa, similar al Reglamento


General de Protección de Datos (GDPR).
Suspensión o Restricción de Actividades:

Suspender temporalmente la operación de los sistemas de IA que no cumplan los


requisitos, especialmente aquellos clasificados como de alto riesgo.
Obligación de Reparación y Notificación:
Los responsables del despliegue pueden tener la obligación de reparar daños causados y
de notificar a las partes afectadas en caso de violación de derechos como privacidad o
seguridad.

Artículos

https://expansion.mx/tecnologia/2024/08/05/youtuber-demanda-a-openai-por-uso-de-sus-videos
https://www.nytimes.com/es/2023/12/27/espanol/new-york-times-demanda-openai-
microsoft.html
https://www.bbc.com/mundo/noticias-65331262

Videos
Inside Bletchley Park: Where Alan Turing Cracked the Enigma Machine
https://www.youtube.com/watch?v=bB-EPWvOJtE

Un Tesla mata a dos personas por un fallo en el software del coche en China
| EL PAÍS

https://www.youtube.com/watch?v=FCWaS26uaYI

New York Times sues AI companies over copyright infringement

https://www.youtube.com/watch?v=maVMMKqMZE0

La CAJA NEGRA de la IA: ¿Qué es y por qué importa?

https://www.youtube.com/watch?v=nHCT0a83q4Y

Vuelven los despidos a las grandes tecnológicas

https://www.youtube.com/watch?v=6k6iT4PfVGU

También podría gustarte