0% encontró este documento útil (0 votos)
204 vistas118 páginas

Mod2 - Desafíos Éticos y RSC

El documento aborda los desafíos éticos y la responsabilidad social corporativa (RSC) en el contexto de la inteligencia artificial (IA), explorando sus diferentes tipos: ANI, AGI y ASI. Se discuten temas como la ética en la IA, la privacidad, la detección de sesgos y el impacto de la IA en la sociedad y la economía. Además, se analizan los riesgos y beneficios de la IA en relación con la RSC y se presentan ejemplos de buenas prácticas en empresas que aplican estos principios.

Cargado por

david
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
204 vistas118 páginas

Mod2 - Desafíos Éticos y RSC

El documento aborda los desafíos éticos y la responsabilidad social corporativa (RSC) en el contexto de la inteligencia artificial (IA), explorando sus diferentes tipos: ANI, AGI y ASI. Se discuten temas como la ética en la IA, la privacidad, la detección de sesgos y el impacto de la IA en la sociedad y la economía. Además, se analizan los riesgos y beneficios de la IA en relación con la RSC y se presentan ejemplos de buenas prácticas en empresas que aplican estos principios.

Cargado por

david
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Módulo

Desafíos éticos
y RSC
Módulo
Desafíos éticos
y RSC
1. ÉTICA EN LA INTELIGENCIA ARTIFICIAL.............................................................. 03
1.1. INTELIGENCIA ARTIFICIAL................................................................................ 03
1.1.1. INTELIGENCIA ARTIFICAL ESTRECHA (ANI)............................................... 04
1.1.2. INTELIGENCIA ARTIFICIAL GENERAL (AGI)................................................ 05
1.1.3. SUPER INTELIGENCIA ARTIFICIAL (ASI)...................................................... 08
1.2. INTELIGENCIA ARTIFICIAL E INTELIGENCIA HUMANA...................................... 11
1.3. ÉTICA ............................................................................................................. 14
1.4. LEYES DE LA ROBÓTICA.................................................................................. 15
1.5. PERCEPCIÓN SOCIAL DE LA INTELIGENCIA ARTIFICIAL.................................... 22
2. DESAFÍOS ÉTICOS DE LA INTELIGENCIA ARTIFICIAL.......................................... 30
2.1. PRIVACIDAD Y PROTECCIÓN DE DATOS.......................................................... 35
2.1.1. TÉCNICAS DE INTERPRETABILIDAD Y EXPLICABILIDAD DE MODELOS
DE INTELIGENCIA ARTIFICIAL............................................................................. 40
2.2. DETECCIÓN DE SESGOS.................................................................................. 56
3. ROBOÉTICA. CÓMO NOS AFECTAN LAS DECISIONES DE LA INTELIGENCIA
ARTIFICIAL................................................................................................................ 75
3.1. VEHÍCULOS AUTÓNOMOS.............................................................................. 80
3.2. INTELIGENCIA ARTIFICIAL APLICADA A LA MEDICINA..................................... 83
3.3. DRONES.......................................................................................................... 87
4. INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD SOCIAL CORPORATIVA......... 91
4.1. CONTEXTO HISTÓRICO................................................................................... 91
4.2. CONCEPTO Y PRINCIPIO DE LA RESPONSABILIDAD SOCIAL CORPORATIVA..... 94
4.2.1. CONCEPTO.............................................................................................. 94
4.2.2. PRINCIPIOS.............................................................................................. 95
4.2.3. ¿QUÉ NO ES RESPONSABILIDAD SOCIAL CORPORATIVA?........................ 96
4.2.4. IMPORTANCIA DE LA RESPONSABILIDAD SOCIAL CORPORATIVA ............ 97
4.2.5. INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD SOCIAL
CORPORATIVA .................................................................................................. 99
4.2.6. LA INTELIGENCIA ARTIFICIAL Y MATERIAS FUNDAMENTALES DE LA
RESPONSABILIDAD SOCIAL CORPORATIVA........................................................ 99
4.3. RIESGOS Y BENEFICIOS DE LA INTELIGENCIA ARTIFICIAL............................... 101
4.4. POSIBLES RIESGOS........................................................................................ 101
4.5. BENEFICIOS DE LA INTELIGENCIA ARTIFICIAL PARA LA RESPONSABILIDAD
SOCIAL CORPORATIVA EN LÍNEA CON LOS OBJETIVOS DE DESARROLLO
SOSTENIBLE.......................................................................................................... 105
4.6. ¿CÓMO APLICAN LAS EMPRESAS LA RESPONSABILIDAD SOCIAL
CORPORATIVA A LA INTELIGENCIA ARTIFICIAL? EJEMPLOS DE BUENAS
PRÁCTICAS.......................................................................................................... 108
4.6.1. TELEFONICA TECH: AI OF THINGS.......................................................... 108
4.6.2. AUDI...................................................................................................... 110
4.6.3. MICROSOFT........................................................................................... 110
BIBLIOGRAFÍA......................................................................................................... 112
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

1. Ética en la Inteligencia Artificial


“Gracias a el desarrollo de nuevos algoritmos específicamente en el
ámbito del Deep Learning las máquinas son capaces de aprender
por si mismas, retroalimentando su conocimiento a partir de nuevos
y antiguos datos.”

1.1. Inteligencia Artificial


La inteligencia artificial (IA) nació a principios del siglo pasado de la mano de una serie
de pioneros de la ciencia computacional que comenzaron a desarrollar su actividad cen-
trándola en el objetivo de que las máquinas “pensaran” por sí mismas con el objetivo de
poder automatizar una seria de tareas cotidianas intelectuales llevadas a cabo por huma-
nos [1].

Para poder definir el concepto de Inteligencia Artificial, debemos en primer lugar descri-
bir qué entendemos por Inteligencia. La mayoría de las definiciones se pueden resumir
en la capacidad del ser de entender, de comprender, de razonar, de adaptarse al ambiente
o de solucionar problemas.

A partir de esta tesis podemos definir la inteligencia artificial como la habilidad de una
máquina de presentar las mismas capacidades que los seres humanos, como el razona-
miento, el aprendizaje, la creatividad y la capacidad de planear. La IA permite que los
sistemas tecnológicos perciban su entorno, se relacionen con él, resuelvan problemas y
actúen con un fin específico. La máquina es entrenada con datos (previamente procesa-
dos o recopilados por el propio sistema), los procesa y responde a ellos. Los sistemas de
IA son capaces de adaptar su comportamiento en cierta medida, analizar los efectos de
acciones previas y de trabajar de manera autónoma [2].

Gracias a el desarrollo de nuevos algoritmos específicamente en el ámbito del Deep Lear-


ning las máquinas son capaces de aprender por si mismas, retroalimentando su conoci-
miento a partir de nuevos y antiguos datos. Sin embargo, las máquinas aún no han sido
capaces de desarrollar una simulación efectiva del comportamiento humano general, ni
han llegado aún a convertirse en sistemas verdaderamente conscientes y conocedores de
si mismos. [3]

03
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

La inteligencia artificial desde un punto de vista del nivel de inteligencia incrustado en


un robot se puede clasificar en diferentes categorías. Dependiendo de las capacidades
que posean los robots de IA, estos se han dividido en tres categorías. Sin embargo, vale la
pena señalar que la IA aún se encuentra en sus primeras fases de desarrollo. En el futuro,
la IA tendrá un aspecto y unas capacidades completamente distintas a las que conocemos
actualmente:

1.1.1. Inteligencia Artifical Estrecha (ANI)


Este tipo de inteligencia artificial está orientada a realizar una única tarea acotada. Es el
tipo de inteligencia artificial con la que estamos acostumbrados a interactuar de manera
cotidiana. Por ejemplo, los asistentes de vox como Siri, Google Assistant o Alexa, que se
encargan de realizar procesamiento de lenguaje natural (PLN) o lo algoritmos predictivos
que podemos encontrar en motores de búsqueda y recomendación. Este tipo de inteligen-
cia artificial está fuertemente extendida a lo largo de todas las industrias y al alcance de
un público generalista.

Las principales características de esta inteligencia artificial son:

• Estos sistemas están programados para realizar una tarea especifica acotada a una
serie de condiciones y parámetros.

• El machine learning y el Deep Learning son los dos principales subconjuntos de


esta tecnología.

• La IA estrecha puede reaccionar de manera instantánea a nuevos datos, situacio-


nes, o contextos en base a la programación con la que cuenta. Esto se conoce como
inteligencia artificial reactiva y es la más sencilla de todas. Por otro lado, Limited
Memory AI cuenta con la capacidad de aprendizaje del comportamiento humano a
lo largo del tiempo y tiene capacidades de respuesta avanzadas.

Este tipo de inteligencia artificial es extremadamente eficiente a la hora de procesar gran-


des volúmenes de información de una forma específica sin embargo no tiene capacidad
para ampliar su conocimiento hacia otras áreas como lo hacen los seres humanos de ma-
nera natural. Un buen ejemplo de este tipo de contradicción es una de las primeras In-
teligencias Artificiales que salieron al mercado: AlphaGo. Esta Inteligencia Artificial es
capaz de superar a cualquier humano enfrentándose al juego de mesa Go, pero es incapaz
de realzar cualquier otra tarea.

04
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

1.1.2. Inteligencia Artificial General (AGI)


Este tipo de inteligencia artificial cuenta con las mismas capacidades que un ser humano.
Este tipo de tecnología es aún una tecnología emergente y se basa en simular la funciona-
lidad integral de un cerebro humano. Esta tiene capacidad de razonamiento, abstracción,
comunicación y es capaz de formular y entender el conocimiento.

La inteligencia artificial general es capaz de simular el razonamiento humano a la hora de


aprender sobre un problema y sus contextos y así ser capaz de resolverlo. Esta cuenta con
una capacidad mayor y más amplia para imitar la comprensión y la inteligencia humanas
y puede llegar a comportarse como lo haría una persona en determinadas situaciones.
Las posibilidades y el impacto de esta IA más robusta y capaz son mucho mayores que las
de la inteligencia artificial estrecha. Gracias a esto, las máquinas de IA contarán con una
mayor autonomía y podrán realizar tareas diferenciadas con precisión además de ganar
un poder más decisivo a través del conocimiento experimental en varios campos.

Esta IA se desarrolla siguiendo los patrones humanos en su aprendizaje sobre las per-
cepciones, necesidades, emociones, creencias y diferentes procesos de pensamiento hu-
manos en diversos contextos. El cerebro humano se esta utilizando como patrón para
desarrollar esta nueva tecnología lo cual esta planteando importantes desafíos a los desa-
rrolladores. La complejidad del funcionamiento del cerebro humano es un área que aún
se encuentra en investigación.

Recientemente Deepmind, el brazo de inteligencia artificial de Alphabet, la empresa ma-


triz de Google ha anunciado Gato; un sistema capaz de realizar 607 tareas disitinas con
la misma base de programación. Este es un importante avance que nos acerca a la inteli-
gencia artificial general.

Los desarrolladores de Gato definen el enfoque aplicado como inspirado por el progreso
en el modelado de lenguaje a gran escala. Esto les ha permitido construir un único agente
generalista más allá del ámbito de los resultados de texto. El agente, al que nos referimos
como Gato, funciona como una política generalista multimodal, multitarea y multicorpo-
ración. La misma red con los mismos pesos puede reproducir Atari, subtitular imágenes,
chatear, apilar bloques con un brazo robótico real y mucho más, decidiendo en función de
su contexto si generar texto, pares de unión, pulsaciones de botones u otros tokens.

05
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 1: Gato la inteligencia artificial generalista de Deepmind

Durante la fase de entrenamiento de Gato, los datos de diferentes tareas y modalidades


se serializan en una secuencia plana de tokens, se agrupan y procesan mediante una red
neuronal transformadora similar a un gran modelo de lenguaje. El absoluto se enmascara
para que Gato solo prediga objetivos de acción y texto.

Al implementar Gato, se tokeniza un aviso, como una demostración, que forma la secuen-
cia inicial. A continuación, el entorno produce la primera observación, que también se
tokeniza y se agrega a la secuencia. Gato muestrea el vector de acción de forma autorre-
gresiva, un token a la vez.

Una vez que se han muestreado todos los tokens que comprenden el vector de acción
(determinado por la especificación de acción del entorno), la acción se decodifica y se
envía al entorno que avanza y produce una nueva observación. Luego se repite el procedi-
miento. El modelo siempre ve todas las observaciones y acciones anteriores dentro de su
ventana de contexto de 1024 tokens.

06
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 2: Cadena de ejecución de Gato

Gato está capacitado en una gran cantidad de conjuntos de datos que comprenden la ex-
periencia del agente en entornos simulados y del mundo real, además de una variedad de
conjuntos de datos de imágenes y lenguaje natural. Aquí se muestra el número de tareas
en las que el rendimiento del modelo Gato preentrenado está por encima de un porcenta-
je de la puntuación del experto, agrupadas por dominio [4].

Figure 3: Threshold de entrenamiento de Gato

Gato prueba la hipótesis de que es posible entrenar a un agente que sea capaz, en gene-
ral, de un gran número de tareas y que ese agente general puede ser adaptado con pocos
datos adicionales para tener éxito en un número aún mayor de tareas.

Sin embargo, Gato no es la única inteligencia artificial multitarea que podemos encontrar
actualmente. Hay algunas inteligencias artificiales que han sobrepasado las capacidades
de las inteligencias artificiales estrechas o débiles. Un ejemplo de ellas es el GPT-3, un
modelo de lenguaje que puede realizar distintas tareas sin un entrenamiento específico y
que ha logrado sorprendentes resultados imitando de manera impecable el estilo de escri-
tura de los humanos. OpenAI, la compañía que lo desarrolla ha anunciado que dentro de
poco estará lista la siguiente versión, el GPT-4, que, pese a que no se sabe mucho de ella
todavía, debería llevar esta tecnología un paso más allá.

07
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Por otro lado, podemos encontrar los desarrollos de coche autónomo llevados a cabo por
Tesla la compañía de Elon Musk, que consideran que para poder alcanzar una autonomía
real, primero deben alcanzar la inteligencia artificial general. En esta misma tecnología
está sustentado su nuevo proyecto, el robot humanoide Optimus, el cual, según las pala-
bras del fundador del proyecto, podrá sustituir y mejorar en habilidades cualquier tarea
de mano de obra realizada por humanos.

1.1.3. Super Inteligencia Artificial (ASI)


Este tipo de inteligencia artificial se caracteriza por superar a los humanos en todos los
posibles escenarios, este tipo de inteligencia artificial se logra cuando la IA es más capaz
que un humano. Este tipo de inteligencia artificial aún no se encuentra desarrollada y
se sustenta sobre los avances realizados en la inteligencia artificial general. La super-
inteligencia, si se logra desarrollar pasaría de ser una de las formas más avanzadas de
inteligencia artificial a inaugurar una nueva era de tecnología que dará lugar a una nueva
revolución industrial, como nunca antes se había visto.

Las máquinas con superinteligencia pueden plantear escenarios y teorías que estarían
fuera de las capacidades cognitivas de los seres humanos. Esto se debe al hecho de que la
capacidad cognitiva del cerebro humano se encuentra limitada por los recursos bilógicos
de los que dispone, unos pocos miles de millones de neuronas.

Además de ser capaz de reproducir la inteligencia humana en sus distintas facetas, el


concepto de superinteligencia artificial se enfoca en la capacidad no solo de comprender/
interpretar las emociones y experiencias humanas, sino también de desarrollar su propia
comprensión emocional, creencias y deseos, en base a sus experiencias.

ASI contaría con una mayor capacidad de memoria y sería capaz de procesar y compren-
der circunstancias, datos y actos de estímulo con más facilidad que un humano. Como
resultado, podemos estar seguros de que las capacidades de toma de decisiones y re-
solución de problemas de los seres/máquinas superinteligentes serán muy superiores y
precisas a las de los humanos [5].

Algunas de las posibles características que plantaría esta tecnología en el futuro y que la
diferenciaría de otras tecnologías y formas de inteligencia son:

• Será el último gran invento de la humanidad, ya que superaran nuestra capacidad


de desarrollo de nueva tecnología.

• Acelerará el progreso tecnológico en otras áreas.

• Conducirá a formas más avanzadas de superinteligencia.

• Permitirá que las mentes artificiales se copien fácilmente.

08
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Este tipo de inteligencia artificial aún está muy lejos de ser factible y hasta ahora solo
podemos hablar de superinteligencia artificial a través de la ciencia ficción o de proyectos
en vías muy iniciales de desarrollo que aún tienen importantes limitaciones que superar
para ser viables.

La primera empresa en mostrar públicamente sus intenciones de desarrollo de este tipo


de tecnologías es Tesla, de la mano de Elon Musk que ya plantea la posibilidad de que
su proyecto de robot humanoide Optimus pueda sustituir y mejorar la capacidad de la
mano de obra humana. Hasta ahora lo que hemos podido ver de esta tecnología esta aún
lejos de poder considerarse como super inteligencia artificial pero supone un importante
avance en el área de los robots humanoides.

Este puede tener importantes aplicaciones en la realización de tareas repetitivas que re-
quieran importantes esfuerzos físicos y atención pero que no cuenten con importantes
variaciones de la misma. Una de las primeras áreas para las que se está desarrollando este
proyecto es para la completa automatización de las fábricas automovilísticas de Tesla,
pero una vez la tecnología este madura nuevos campos de aplicación surgirán rápida-
mente como por ejemplo sustituir a trabajadores de alto riesgo como mineros, estibadores
o jornaleros, hasta reponedores de supermercado o camareros.

Figure 4: Optimus, el robot humanoide de Tesla

09
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

En la actualidad nos encontramos en el límite entre la inteligencia artificial estrecha,


donde los sistemas tienen un único objetivo como la predicción de resultados basada
en históricos de búsqueda o el reconocimiento de objetos en imágenes. Estas tareas son
sencillas en comparación con las que pueden llegar a realizar inteligencias artificiales
mas avanzadas.

Sin embargo, gracias a los últimos avances en inteligencias artificiales multitarea ya se


comienza a vislumbrar la inteligencia artificial general, que permite realizar trabajos más
complicados y con múltiples tareas integradas dentro de una única IA.

La superinteligencia, aunque aún está lejos de ser algo factible, está generando fascina-
ción a personas e investigadores de todo el mundo. Esta cuenta con numerosos riesgos
asociados, sin embargo los investigadores creen que llegar a conseguir esta tecnología
será el mayor logro de la humanidad y nos permitirá desentrañar los misterios del univer-
so y más allá.

A pesar de las preocupaciones y complicaciones relacionadas con la tecnología, esta pre-


senta el potencial para enfrentarnos a algunos de los desafíos más urgentes de nuestro
tiempo, como el cambio climático, las desigualdades sociales e incluso el brote de enfer-
medades.

Todos estos avances en el campo de la inteligencia artificial y su prometedor potencial


genera una serie de riesgos asociados que deben ser analizados desde un punto de vista
ético humano, ya que, como hemos visto las máquinas no son capaces de desarrollar aún
una simulación efectiva del comportamiento humano general y por lo tanto, aún carecen
de un sistema ético más allá del programado.

Algunos de los principales riesgos asociados al desarrollo de Inteligencias Artificial son


los siguientes:

• Riesgos de ejecución: Errores en la programación, opacidad, explicabilidad o esta-


bilidad de la ejecución

• Riesgos de seguridad: ataques informáticos, privacidad, riesgos del software de


código abierto

• Riesgos de control: Corrupción de la IA, incapacidad de control de una IA inde-


pendiente

• Riesgos económicos: potencial pérdida de puestos de trabajo, concentración de


poder, fiabilidad, reputación

• Riegos sociales: proliferación de armas autónomas, desigualdad..

10
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Pese a sus riesgos el desarrollo de la inteligencia artificial puede suponer uno de los ma-
yores desafíos de la ciencia moderna y a su vez una de las mayores oportunidades de cre-
cimiento social. La creación de una inteligencia artificial general puede ayudar a resolver
los grandes retos humanos como, por ejemplo:

• La seguridad del agua potable para el desarrollo de la vida

• El calentamiento global

• La calidad del aire

• Las grandes desigualdades sociales

• Conservación de la naturaleza

Por ello un mayor número de organismos gubernamentales están comenzando a tomar


medidas para acotar mediante leyes las áreas de acción de la inteligencia artificial.

1.2. Inteligencia Artificial e inteligencia humana


Hablar de la diferencia entre la inteligencia artificial (IA) y la inteligencia humana se
puede reducir al hecho de que la primera es creada por la segunda. En la actualidad existe
la imposibilidad de que la IA supere la inteligencia humana natural, es decir, profundizar
en funciones cognitivas como la memoria, la resolución de problemas, el aprendizaje, la
planificación, el lenguaje, el razonamiento y percepción.

En el ámbito científico y en la investigación existe un consenso amplio sobre la inteligen-


cia artificial y su búsqueda de replicación de la inteligencia humana en sistemas infor-
máticos y robots, pero las definiciones divergen al especificar qué facultades cognitivas
se busca emular y programar en las máquinas. La existencia de distintas definiciones de
IA responde a la falta de una definición única de inteligencia. Este término es demasiado
amplio para reducirlo a una única definición, por ejemplo en el campo de la psicología,
se definen inteligencias múltiples para referirse a la diversidad de habilidades de un se
humano, como la inteligencia lógico matemática, inteligencia emocional, inteligencia ar-
tística… Esto ha dado lugar a una corriente de investigación en la que se considera a la
Inteligencia Artificial como un complemento de la inteligencia humana. Esta permitiría
complementar deficiencias en la inteligencia humana, y poseería un carácter instrumen-
tal, centrándose en tareas en las que una máquina puede obtener un mejor desempeño
que un ser humano.

11
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Desde ese punto de vista la inteligencia artificial puede considerarse que tiene como obje-
tivo desarrollar tres ramas que permitan emular las facultades cognitivas de las personas:

1. Modelos conceptuales: diseñar modelos que proporcionen una mejor comprensión


de los procesos cognitivos que tienen lugar en los seres humanos. Esta tarea se apoya
en otras ramas, como la epistemología, la neurología u otras disciplinas relacionadas
con la cognición. A esta rama de la IA se la suele denominar “neurociencia computa-
cional”.

2. Procedimientos de reescritura formal de dichos modelos: una vez observadas, ana-


lizadas y descritas las distintas funciones cognitivas de los diversos seres inteligen-
tes, se busca reescribir los modelos obtenidos en un lenguaje formal, es decir, pasar
de la descripción y observación del lenguaje natural a su formulación en un lenguaje
formal; de un modelo conceptual del conocimiento humano a otro formal y compu-
table.

3. Estrategias de programación y máquinas físicas para reproducir de la forma más


eficiente y completa posible las tareas cognitivas y científico-técnicas más genuinas
de los sistemas biológicos que hemos etiquetado como inteligentes. [18]

Tal como ha quedado demostrado, la IA persigue —como principal objetivo— replicar la


inteligencia humana en máquinas y sistemas informáticos. Esto hace que la inteligencia
artificial encuentre un punto de intersección con em campo de la ética, el cual se extiende
hacia donde se puedan encontrar agentes dotados de autonomía e inteligencia, es decir,
sujetos capaces de tomar decisiones y actuar de forma racional. La existencia de aplica-
ciones capaces de tomar distintos cursos de acción por si mismas plantea dudas sobre la
creencia hasta ahora de que solo los seres humanos son capaces de actuar por sí mismos.
Este es uno de los fundamentos del debate ético formado alrededor de la inteligencia ar-
tificial, ya que la responsabilidad de los razonamiento y decisiones de estos dispositivos
recaerá directamente sobre las personas encargadas del diseño de los dispositivos o sobre
los propios dispositivos.

Los dispositivos de inteligencia artificial estrecha o dispositivos que cuenten con una IA
débil tienen una relevancia ética fácil de determinar. Estos dispositivos pueden operar de
forma automática pero no poseen una inteligencia de tipo general que les permita operar
de manera automática. Estos dispositivos generalmente se encuentran programados para
realizar una única tarea, en la que pueden superar las habilidades de un humano, pero no
tienen capacidad propia para realizar otro tipo de tareas, ni de actuar de forma racional.
Analizados desde un punto de vista ético no son imputables, ya que la responsabilidad
ética de su funcionamiento recae directamente sobre las personas encargadas de su dise-
ño y funcionamiento. La reflexión ética alrededor de este tipo de tecnología debe focali-
zarse en la programación y el diseño de los sistemas, así como en la ética de las personas
encargadas de su desarrollo.

12
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Por otro lado, la consideración ética de los sistemas de inteligencia artificial generales y
la super inteligencia artificial, lo que generalmente conocemos con IA fuerte, es mucho
más compleja. En este caso es importante analizar las capacidades de la propia tecnología
y determinar qué tipo de decisiones es capaz de tomar de manera independiente y cua-
les son fruto de la programación establecida para realizar un cálculo de probabilidades
teniendo en cuenta una diversidad de factores y circunstancias. En el ejemplo de un ve-
hículo autónomo este es capaz de tomar una serie de decisiones por sí mismo, pero dado
un escenario determinado y un conjunto de datos limitado, el curso de acción de estos
sistemas será siempre el mismo. Por ello a la hora de determinar las responsabilidades
morales de este tipo de sistemas existe aún un debate sobre donde se debe trazar la line
de responsabilidad del programador respecto a la del propio sistema. Las decisiones que
han sido tomadas por un sistema con un sistema inteligencia artificial embebida han de
ser diferenciadas en términos de responsabilidad ética, sobre si el origen de esa decisión
se basa en la programación que el diseñador del sistema ha integrado en la plataforma,
o si por el contrario esa decisión ha sido tomada de manera completamente autónoma
por el sistema. Diferenciar este tipo de decisiones no es una tarea sencilla, ya que como
hemos visto en otras unidades de este máster, cuando trabajamos con modelos de Deep
Learning, en muchas ocasiones nos encontramos ante cajas negras, donde no tenemos el
conocimiento completo de la forma en la que se están tomando las decisiones dentro de
nuestro algoritmo. Esto dificulta enormemente la capacidad de discernir de qué manera
se ha completado la salida de un algoritmo.

En este sentido está cobrando una especial importancia la aplicación de herramientas


que permitan facilitar la explicabilidad de los modelos de inteligencia artificial y la reduc-
ción de cajas negras

Los desarrolladores de IA deben incorporar técnicas de IA explicables en sus flujos de


trabajo como parte de sus operaciones de desarrollo. Para lograr una IA explicable, deben
controlar los datos utilizados en sus modelos, lograr un equilibrio entre la precisión y
la interpretabilidad, centrarse en los usuarios finales y desarrollar indicadores clave de
rendimiento (KPI) para evaluar el riesgo de la IA. Pero aplicar estas técnicas explicables
de IA no es fácil.

La inteligencia artificial continúa evolucionando y es de esperar avances y desarrollos


futuros, pero sus beneficios ya son numerosos: con esta tecnología, podemos entender
mejor y más rápido los resultados de los rayos X, o podemos entender mejor a nuestros
clientes y ajustar nuestro enfoque de marketing en consecuencia. La ética debe tenerse
en cuenta no solo en los proyectos de IA, sino también en cualquier innovación tecnoló-
gica. No podemos arriesgarnos a construir herramientas poco éticas. Si asumimos riesgos
poco éticos para innovar o obtener ganancias económicas, podemos encontrarnos ante
una tecnología que no seamos capaces de controlar.

13
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

1.3. Ética
A lo largo de este máster hemos definido extensamente en que consiste la inteligencia
artificial y cuáles son sus posibles aplicaciones. Para poder comprender el desafío ético
que estas van a suponer para la sociedad debemos comenzar por comprender en que
consiste la ética.

La palabra ética proviene del griego ethikos (“carácter”). Se trata del estudio de la moral y
del accionar humano para promover los comportamientos deseables. Una sentencia ética
supone la elaboración de un juicio moral y una norma que señala cómo deberían actuar
los integrantes de una sociedad.

Por lo tanto, cuando alguien aplica una sentencia ética sobre una persona, está realizan-
do un juicio moral. La ética, pues, estudia la moral y determina cómo deben actuar los
miembros de una sociedad. Por lo tanto, se la define como la ciencia del comportamiento
moral [6].

Aunque la ética siempre fue una rama de la filosofía, su alcance se extiende a otras mu-
chas disciplinas como la biología, la medicina, la economía, la sociología o la tecnología.

Dentro de la ética podemos encontrar diferentes ramas de estudio:

• Metaética: La metaética es la rama de la ética que estudia el origen y el significado


de los conceptos éticos, así como las cuestiones metafísicas acerca de la moralidad,
en particular si los valores morales existen independientemente de los humanos, y
si son relativos, convencionales o absolutos

• Ética normativa: La ética normativa es la rama de la ética que estudia los posibles
criterios para determinar cuándo una acción es correcta y cuándo no lo es.1 Busca
principios generales que justifiquen los sistemas normativos y argumenta por qué
se deberían adoptar determinadas normas.

• Ética aplicada: La ética aplicada es la rama de la ética que estudia la aplicación


de las teorías éticas a cuestiones morales concretas y controvertidas. Este tipo de
ética se encarga de definir y guiar los valores profesionales aplicados en diversas
disciplinas, como por ejemplo la bióetica, la ética de los negocios o la ética com-
putacional.

Es en esta última área donde recaen los problemas éticos planteados por la evolución de
la inteligencia artificial. Específicamente estos desafíos se contemplan desde el punto de
vista de la ética computacional o ética informática.

14
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

El concepto de ética informática o computacional surgió durante la década de los 70 cuan-


do la computación empezó a utilizarse de manera masiva los sistemas informáticos y se
extendió su estudio y aplicación con la llegada de internet. Una tarea central de la ética
computacional es determinar que hacer en casos en los cuales se expone un dilema ético,
formular políticas, códigos y normas en forma individual y colectiva, a través de las insti-
tuciones que guíen las acciones de los profesionales relacionados con las tecnologías de
información.

Desde la aparición de este concepto varias sociedades y organizaciones profesionales


han promovido la creación de documentos de códigos de ética profesional que sirvan
como guías de conducta básica. Algunos ejemplos de estas guías son los siguientes:

• Código ACM de conducta profesional [7]

• Código BCS de Conducta, British Computer Society [8]

• Código IEEE de Conducta [9]

• El Código de Ética de los Administradores de Sistemas [10]

Estos códigos están diseñados para inspirar y guiar la conducta ética de todos los pro-
fesionales de la Informática, incluyendo a los profesionales actuales y futuros, a los ins-
tructores, los estudiantes, las personas influyentes y a cualquiera que utilice la tecnología
informática para generar un impacto.

Estos códigos se tratan de manuales generalistas de buenas prácticas en la conducta in-


formática que deben ser seguidos por cualquier profesional que trabaje en este ámbito,
sin embargo, no cuentan con una aplicación específica a problemas de Inteligencia Arti-
ficial.

Como sabemos esta tecnología se basa principalmente en la toma de decisiones de mane-


ra autónoma por un sistema que pueden involucrar tanto aspectos morales como sociales
que pueden conllevar graves daños. Por lo tanto, debido a que estos sistemas ya no son
utilizados únicamente como herramienta, sino de forma autónoma y como miembros de
equipo, las consideraciones éticas se vuelven especialmente importantes.

1.4. Leyes de la robótica


Las leyes de la robótica son un conjunto de leyes pensadas como marco fundamental de
legislación del comportamiento de los robots diseñados para tener un alto grado de auto-
nomía. Como hemos visto, este tipo de tecnología aún se encuentra en vías de desarrollo
por lo que la legislación al respecto también se encuentra en investigación y desarrollo
dentro de los campos de la robótica y la inteligencia artificial.

15
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Las leyes de la robótica más conocidas en la actualidad no se tratan de una legislación re-
glada por ninguna institución o gobierno si no que tienen su origen en la ciencia ficción.
Se trata de las tres leyes de la robótica que fueron enunciadas por Isaac Asimov en 1942
en su relato Circulo Vicioso (Runaround) que forma parte del volumen Yo, Robot. Este
recoge cinco cuentos y cuatro novelas cortas de la Serie de los robots, enlazadas entre sí
por la temática y el hilo argumental.

Asimov fue un escritor y profesor de bioquímica en la facultad de medicina en la univer-


sidad de Boston. De origen ruso pero nacionalizado como estadounidense, es conocido
principalmente por sus obras de ciencia ficción, historia y divulgación científica. En sus
libros de divulgación científica explica conceptos científicos siguiendo una línea históri-
ca, retrotrayéndose lo más posible a tiempos en que la ciencia en cuestión se encontraba
en una etapa elemental.

Ilustración 1: Portada del libro Yo, robot de Isaac Asimov [11]

Todos los robots definidos en el universo de ciencia ficción creado por Isaac Asimov se
rigen por las tres leyes de la robótica que establecen lo siguiente:

Primera Ley

Un robot no debe dañar a un humano o, por su inacción, dejar que un humano sufra daño.

Esta ley define la protección básica del ser humano, el robot deberá anteponer la integri-
dad (física o psicológica) de la persona a cualquier otra opción. Esta ley no solo hace alu-
sión al hecho de no causar daño si no al de evitarlo. Asimov especifica aún más y enfoca
esta ley a través de las acciones del robot, pero también a través de aquellos actos que no
llega a acometer (la no-acción)

16
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Una aplicación de esta ley en un ejemplo de inteligencia artificial desarrollada en la ac-


tualidad es en lo coches autónomos. En caso de darse una situación en la que un coche va
a chocar con otro, el coche deberá apartarse con el fin de no causar daño a los ocupantes,
aunque este esté circulado cumpliendo con las normas de circulación establecidas.

Segunda Ley

Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando
estas órdenes se oponen a la primera Ley.

Esta ley obliga a los robots a obedecer siempre a los humanos y a rebelarse frente a nin-
guna instrucción, salvo que esta implique causar cualquier tipo de daño a un ser humano,
incluyendo el que da la orden. En este caso un robot deberá obedecer aunque esta orden
atente directamente sobre su integridad física o contra la de otro robot.

Tercera ley

Un robot debe proteger su propia existencia, hasta donde esta protección no entre en
conflicto con la primera o segunda Leyes.

Como vemos, la tercera ley hace referencia a la autoprotección del robot; esta ley deberá
primar, siempre y cuando no sea incompatible con las leyes anteriores (que serán priori-
tarias).

Tras estas tres Leyes principales, Asimov añadió una nueva ley la Ley Cero, que supone
una generalización de la primera de las leyes.

Ley Cero

Un robot no puede dañar a la humanidad ni permitir que sufra ningún daño por inacción.

Esta ley supone una mejoría de la primera ley ya que no incluye al hombre en singular si
no a la humanidad en general.

Aunque estas leyes aparecen en las novelas escritas por Isaac Asimov, el mismo autor ex-
plicó que las redactó, John W. Campbell [12], también escritor estadounidense de ciencia
ficción, a través de una conversación entre ambos. Según Campbell, el propio Asimov ya
tenía pensadas esas leyes, y lo que hicieron fue ponerlas en común, entre ambos.

Tradicionalmente, por su precisión y su carácter pionero, se ha considerado las tres leyes


de la robótica de Asimov como la referencia a la hora de determinar el comportamiento
básico que debería tener un robot. Pero, en el futuro y cuando los robots muestren una
inteligencia similar a la de un ser humano adulto, ¿Será posible delimitar sus acciones
con un conjunto de reglas tan precisas?

17
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

A lo largo de la obra de Asimov se plantean interesantísimas cuestiones relativas a la for-


ma en que los robots aplicarían las tres leyes; por ejemplo, ¿Cómo actuarían en el caso de
tener que decidir entre la vida de varios humanos? ¿Cómo determinarían lo que es “daño”
o los diferentes niveles de “daño” que un ser humano puede recibir? ¿Son más graves los
daños psicológicos o los físicos?

Las leyes de la robótica propuestas por Asimov son imaginativas y prácticas dentro del
universo que el fantástico escritor recrea. Sin embargo, estas leyes se plantearon basán-
dose en el conocimiento científico y tecnológico disponible durante los años cuarenta y
en la visión futurista que el autor planteaba desde su punto de vista personal de lo que
podía suponer el desarrollo de la tecnología. Desde la formulación de estas leyes los avan-
ces científicos y tecnológicos han sido inimaginables en ese momento, por lo que, pese a
que el criterio definido por Asimov se ha utilizado como punto de partida en numerosos
estudios éticos sobre la legislación en robótica, estas no son lo suficientemente precisas
para hacer frente a los retos que plantea la tecnología actual, ni los que podría plantear
la futura.

Otro ejemplo menos conocido que el de Asimov, es el del investigador y escritor británico
Arthur C. Clarke [13], el cual estableció una serie de leyes sobre el potencial tecnológico.
Estas trataban de predecir y explicar cómo se darían lo avances científicos del futuro.

Primera Ley de Clarke

Cuando un científico, ya anciano y famoso, afirma que algo es posible, probablemente esté
en lo correcto. Pero, cuando dice que es imposible, lo más probable es que se equivoque.

Esta primera ley se formuló en el ensayo Hazards of the Prophecy: The Failure of the
Imagination (1962) [13] y establece que la mayor parted e las invenciones de la ciencia
ficción son posibles y algún día se harán realidad. Esta formulación la apoyan renom-
brados científicos como Stephen Hawking, el cual nos siver como ejemplo de aplicación
de la misma. Este presuponía la imposibilidad de encontrar el bosón de Higgs y que de
encontrarse supondría un poder destructivo fuera de nuestro control. El bosón de Higgs
fue descubierto den 2013 por los físicos belga François Englert y británico Peter Higgs y
hasta el momento tal partícula no ha supuesto incidentes preocupantes.

Segunda Ley de Clarke

La única manera de encontrar los límites de lo posible es yendo más allá de esos mismos
límites, y adentrarse en lo que creemos imposible.

Más que una ley, este postulado es una invitación a que la investigación no pare, a que
la ciencia continúe tratando de describir de la mejor manera la realidad y modificarla de
acuerdo a los intereses generales.

18
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Tercera Ley de Clarke

Cualquier tecnología suficientemente avanzada es indistinguible de la magia.

Su última ley, formulada bastante más tarde que las dos primeras, esta a pesar de ser la
última de una década, es la más conocida y la más citada. Aparece sólo en la revisión de
1973 del ensayo “Los peligros de la profecía”.5 En 1952, Isaac Asimov en su libro Founda-
tion and Empire (parte 1.1 Search for Magicians) escribió una frase similar “...un público
desinformado tiende a confundir la erudición con los magos...”. Esta frase ha tenido di-
ferentes interpretaciones, pero la principal estipula que cualquier civilización del futuro
habría tenido el suficiente tiempo para haber desarrollado tecnología que vista desde el
pasado pudiera ser confundida con la magia. De la misma manera que si trasladáramos
tecnología de nuestra época a épocas históricas como la Edad Media, resultaría práctica-
mente imposible convencerles mediante explicaciones científicas el funcionamiento de la
misma, y probablemente lo atribuirían a la magia.

Esta cita ha inspirado múltiples variaciones definidas por otros escritores y filósofos:

• Cualquier inteligencia extraterrestre suficientemente avanzada es indistinguible


de Dios (Última Ley de Shermer) [14]

• Cualquier idea suficientemente avanzada se distingue de un mero encantamiento


mágico siempre que la primera se presente como una prueba matemática, verifica-
ble por matemáticos suficientemente competentes [15]

• Cualquier tecnología lo suficientemente avanzada es indistinguible de una demos-


tración manipulada [16]

• Cualquier trol lo suficientemente avanzado es indistinguible de un chiflado genui-


no o los puntos de vista de incluso el fanático más extremo son indistinguibles de
la sátira suficientemente avanzada (Ley de Poe) [17]

Ilustración 2: Libro Profiles of the Future donde se presenata la segunda ley de Clarke

19
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Estas leyes, vistas desde la perspectiva actual, al igual que las planteadas por Asimov, se
antojan generalistas y no aplicables más allá del plano teórico.

Los riesgos existenciales derivados del desarrollo de la IA, son más que especulativos y al
día hoy existe consenso a nivel mundial que su desarrollo sin controles éticos y jurídicos
pueden atentar en contra la existencia de la humanidad. En parte este consenso se funda
en la circunstancia que la IA ya está asediando el derecho a la privacidad, a la libertad y a
la igualdad. Y en perspectiva, ya se proyecta científicamente que podría llegar a afectar la
vida humana en su totalidad.

Por ello la Unión Europea ha comenzado a desarrollar una serie de leyes actualizadas a
nuestro tiempo que permitan legislar el mundo que nos rodea y regular el futuro de la
inteligencia artificial. Para ello proponen una actualización de las leyes de la robótica, con
seis principios que luego serán aplicados sobre los textos legislativos:

Primera Ley

Los robots deberán tener un interruptor de emergencia

Esta ley tiene como objetivo la capacidad de poder controlar cualquier situación en la que
se pueda dar un peligro. Las máquinas que cuentan con inteligencia artifcial contarán con
capacidad de aprendizaje independiente del ser humano, por lo que su comportamiento
no siempre será predecible. Un botón de apagado de emergencia nos permite estar prepa-
rados en caso de situación descontrolada.

Segunda Ley

Los robots no podrán hacer daño a los seres humanos

Esta segunda ley está fundamentada en la primera Ley de la robótica de Asimov, y se


incluye como punto fundamental dentro de la consideración de la Unión Europea de que
la robótica debe ser pensada para ayudar y proteger a los humanos, por lo que no se per-
mitirá la creación de máquinas inteligentes autónomas cuyo fin sea dañar a las personas.

20
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Este punto es especialmente controversial desde el punto de vista de la industria arma-


mentística, ya que limitaría el uso de ciertas capacidades de la inteligencia artificial en el
ámbito de las armas autónomas, como pueden ser drones autodirigidos.

Tercera Ley

No podrán generarse relaciones emocionales con los robots

Esta ley se basa en el fundamento en que las inteligencias artificiales no cuentan con la
capacidad de desarrollar sentimientos hacia los seres humanos, tales como el amor, la
amistad o el odio. El objetivo de esta norma es recordarles este principio a los humanos y
debemos relacionarnos con ellas de la misma manera.

De nuevo esta ley puede generar cierta controversia desde la industria de desarrollo de
dispositivos sexo-afectivos, la cual con ayuda de la inteligencia artificial podría desarro-
llar todo una nueva área para la industria.

Cuarta Ley

Los robots más grandes deberán tener un seguro obligatorio

No todas las máquinas serán iguales ni tendrán las mismas características. Tampoco po-
drán realizar todos las mismas actividades. Es evidente que algunos de ellos tendrán más
riesgo de causar ciertos daños materiales que otros robots.

Por ello, la Unión Europea obligará a los dueños de los robots de mayor tamaño, que son
considerados los que más riesgo tienen de provocar daños en el entorno, la contratación
de un seguro obligatorio como podría suceder en la actualidad con los coches. Esto per-
mitiría al responsable civil responder ante posibles daños en caso de accidente o compli-
caciones.

Quinta Ley

Derechos y obligaciones de los robots

La Unión Europea ha decidido denominarlos como personas electrónicas, lo que impli-


ca que como “personas” tendrán que tener derechos y deberes. Aún se están definiendo
cuáles serán exactamente, pero lo que sí está claro es que los robots asumirán las con-
secuencias de sus actos junto a sus dueños. Siempre que se utilice la palabra “persona”
implica que existirán una serie de derechos que de otra manera ni se pensarían. El debate
se encuentra en cuáles serán sus derechos u obligaciones.

21
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Sexta Ley

Tendrán la obligación de pagar impuestos

El fundamento de esta ley se basa en minimizar el impacto generado por los robots en
el empleo humano. Su entrada en el mercado laboral va a implicar la sustitución de mi-
llones de puestos de trabajo actualmente ocupados por personas humanas por robots.
Estos supondrán un menor coste para las empresas por lo que con la finalidad de reducir
gastos y ampliar los márgenes de beneficio irán sustituyendo sus empleados humanos
por persona electrónicas. Por ello desde el Parlamento Europeo consideran necesario que
las máquinas tributen y las empresas que las emplean paguen impuestos de manera pro-
porcional a los puestos de trabajo sustituidos con el objetivo de poder subvencionar las
ayudas destinadas a las personas afectadas por este cambio.

Esta última ley es crucial en el mantenimiento del denominado estado del bienestar, ya
que uno de los principales riesgos de la entrada de las máquinas en el mercado laboral es
el colapso de la economía debido al desempleo.

Estas leyes fundamentales se han planteado como un marco teórico sobre el que se de-
sarrollará la legislación europea sobe la inteligencia artificial. La evolución de esta legis-
lación va a verse condicionada por la evolución de la tecnología, pero también por los
cambios y estructuras sociales y la relación de las personas con la tecnología.

La Inteligencia Artificial, al mismo tiempo crea una necesidad de actualizar las diferentes
legislaciones, nacionales e internacionales respecto a las definiciones que existen en la
actualidad sobre personas jurídicas, pues el mundo tecnológico debe ir de la mano y ser
compatible con las leyes y justicia por las que nos guiamos, y viceversa. Los avances
en la tecnología dejan obsoletas o, al menos incompletas algunas leyes de los actuales
Códigos Civiles. Este ejemplo podemos verlo también en otras tecnologías como las de-
sarrolladas a partir del avance del blockchain con la creación de las criptomonedas tales
como Bitcoin o Ethereum cuya desregularización hace que no será posible aplicar las mis-
mas leyes comerciales que sobre otro tipo de monedas reguladas. Por ello es importante
mantener una traducción coetánea de las leyes para mantener su utilidad en el mundo
tecnológico actual.

1.5. Percepción social de la inteligencia artificial


La inteligencia artificial es uno de los campos de la informática que más ha captado la
atención de la opinión pública en los últimos años. El avance de los sistemas de inteligen-
cia artificial está cambiando la forma en que interactuamos con la tecnología, y el impacto
que está teniendo en nuestras vidas es cada vez más evidente.

22
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Aun siendo un tema de ciencia ficción hace solo unas décadas, la inteligencia artificial es
hoy una realidad a la que nos enfrentamos a diario. Desde el asistente virtual de nuestro
teléfono móvil hasta los coches autónomos, la inteligencia artificial está cambiando la
forma en que vivimos y trabajamos.

La integración de esta tecnología en nuestras vidas es cada vez mayor y la percepción de


la misma ha ido evolucionando al mismo tiempo que la tecnología. Pese a que su uso está
totalmente extendido en el mundo moderno, hasta el punto en el que es prácticamente
imposible vivir sin hacer un uso directo o indirecto de esta tecnología.

Actualmente la inteligencia artificial es aclamada por muchos sectores tecnológicos


como la cuarta revolución industrial. La proliferación de cascos de realidad aumentada
(AR) y realidad virtual (VR), por ejemplo, representa una nueva forma de experimentar
nuestras vidas y el mundo que nos rodea. Pero ¿qué pasa con todo el bombo que rodea
a la IA, que a menudo se presenta como una panacea para los problemas humanos? Las
tecnologías habilitadas para contar con Inteligencia Artificial pueden facilitar la realiza-
ción de muchas tareas, pero también cuentan con importantes aspectos que aún deben
de ser desarrollados.

Pese a la demostrada utilidad de esta tecnología en todas las áreas de la vida, en la última
época está surgiendo una creciente preocupación al respecto de las capacidades de esta
tecnología, que está haciendo que muchas personas cambien su forma de interaccionar
con los sistemas.

Al respecto de la inteligencia artificial están comenzando a surgir inquietudes sobre la


seguridad de la misma, así como la finalidad última que tienen algunos sistemas en los
cuales podemos encontrarla integrada. Por ejemplo, cuando hacemos uso de un motor de
búsqueda asociado a un asistente virtual, este almacena nuestro historial de búsqueda
en nuestra cuenta de cliente y estos datos son empleados para realizar recomendaciones
en base a este histórico. Estas recomendaciones pueden resultarnos útiles en algunos
aspectos, pero también son empleadas como estrategias de marketing que nos generan
necesidades de consumo. Ante este escenario cabe preguntarse, a quien está sirviendo
realmente esta tecnología, ¿al usuario que la está empleando como motor de búsqueda o
al gestor de la herramienta de marketing que está empleando estos datos para realizar el
posicionamiento de un producto?

Este ejemplo, probablemente sea el más conocido, por la evidencia con la que se realiza
esta práctica, sin embargo, existen múltiples aplicaciones de la inteligencia artificial en
las cuales el sujeto el cual está siendo objeto de la aplicación de esta tecnología no es
consciente de ello.

23
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Si nos fijamos en las encuestas globales realizadas al respecto de la inteligencia artificial


y su implantación y uso en la sociedad actual, encontramos algunas respuestas sobre el
uso de esta tecnología que pueden resultar sorprendentes, e incluso contradictorias con
los datos que podemos encontrar en el mercado tecnológico.

La empresa Ipsos, especializada en investigación global de mercados, realizó una encues-


ta al respecto de las opiniones globales y expectativas de la inteligencia artificial [19], que
aportan una visión general de la perspectiva que tienen las distintas sociedades sobre
esta tecnología.

Para poder analizar los resultados de esta encuesta debemos tener en cuenta a la muestra
de personas sobre la que se realizó la misma. Esta encuesta fue realizada en 28 países de
manera online y cuenta con la entrevista de un total de 19,504 adultos de 18 a 74 años de
los Estados Unidos. Canadá, Malasia, Sudáfrica y Turquía y de 16 a 74 en otros 23 mercado
entre el 19 de noviembre y el 3 de diciembre de 2021. La muestra cuenta con aproximada-
mente 1000 individuos en Australia, Brasil, Canadá, China (continental), Francia, Alema-
nia, Gran Bretaña, Italia, Japón, España y EE.UU. y 500 individuos de Argentina, Bélgica,
Chile, Colombia, Hungría, India, Malasia, México, Países Bajos, Perú, Polonia, Rusia, Ara-
bia Saudita, Sudáfrica, Corea del Sur, Suecia y Turquia.

Esta encuesta arrojo los siguientes datos al respecto de las opiniones generales sobre la
inteligencia artificial a nivel global:

• Un 64% de los encuestados consideran que tienen una buena comprensión de lo


que es la inteligencia artificial

Este es uno de los primeros datos que puede resultar sorprendente ya que la comprensión
de las implicaciones de los sistemas de inteligencia artificial requiere un conocimiento,
aunque sea en líneas generales de la tecnología más allá del nivel de un usuario promedio.
Hacer uso de una tecnología puede generar la sensación de tener un conocimiento sobre
ella, que en el caso de la inteligencia artificial no se corresponde con el trasfondo de la
misma.

• Un 60% de los encuestado consideran que los productos y servicios que utilizan
inteligencia artificial cambiarán profundamente su vida diaria en los próximos tres
a cinco años

De esta pregunta podemos extraer que la mayoría de la población tiene una percepción
de la inteligencia artificial como una tecnología en vías de desarrollo, la cual va a aumen-
tar su presencia en el mercado de manera muy significativa en un futuro inmediato

• Un 60% de los encuestados consideran que los productos y servicios de inteligen-


cia artificial facilitan su vida

24
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Basándonos en esta respuesta, podemos observar que una mayoría de la población perci-
be la inteligencia artificial como una herramienta efectiva y que tiene un impacto positivo
en su vida.

• Un 52% de los encuestados consideran que los productos y servicios de inteligen-


cia artificial tienen más beneficios que desventajas

Cuando preguntan directamente sobre el efecto positivo de esta tecnología, observamos


que el porcentaje de población que percibe la inteligencia artificial como algo positivo
desciende hasta prácticamente la mitad de la población.

• Un 50% de los encuestados consideran que conocen que tipo de productos y servi-
cios usan inteligencia artificial.

Esta respuesta se contrapone con la primera pregunta de la encuesta en la que un 64%


de los encuestados consideran tener una buena comprensión de lo que es la inteligencia
artificial. La percepción social de no saber en qué áreas se está aplicando este tipo de tec-
nologías nos indica un desconocimiento de las capacidades de la mima.

• Un 50% de los encuestados confían en las empresas que utilizan la inteligencia


artificial tanto como en las que no

En esta respuesta de nuevo vemos como la confianza en la inteligencia artificial descien-


de hasta la mitad de la población.

• Un 49% de los encuestado consideran que los productos y servicios que utilizan
inteligencia artificial han cambiado profundamente su vida diaria en los próximos
tres a cinco años

Podemos interpretar esta respuesta conjuntamente con la que identifica que un 50% de
personas no sabe los productos y servicios que utilizan inteligencia artificial. Con la inte-
gración actual de la inteligencia artificial en los mercados, hacemos un uso de aplicacio-
nes de inteligencia artificial de manera diaria para actividades tan comunes como la hacer
la compra, la reserva de un vuelo, o realizar una búsqueda de información en un motor de
búsqueda online.

• Un 39% de los encuestados consideran que los productos y servicios de inteligen-


cia artificial les ponen nerviosos.

Esta pregunta contrapuesta con la confianza en las empresas que utilizan inteligencia ar-
tificial nos da una idea de que la desconfianza se encuentra más en el mal uso que pueda
realizarse de esta tecnología, en la tecnología propiamente.

25
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Ilustración 3: Encuesta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]

Analizando en mayor profundidad los datos de la encuesta, observamos que la confianza


en la inteligencia artificial está directamente correlacionada con la comprensión perci-
bida de la misma. Esta tendencia vemos que es mayor en ambos ámbitos en los países
emergentes respecto a países que pueden considerarse como más desarrollados.

Ilustración 4: Encuesta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]

Si analizamos las opiniones sobre la inteligencia artificial en base a datos demográficos,


podemos observar que existe una opinión más positiva sobre esta tecnología en hombres
que en mujeres. También podemos observar esta tendencia en los distintos grupos de
edad donde las personas más jóvenes perciben la inteligencia artificial como algo positivo
en un mayor porcentaje que la gente de edad media o de edad avanzada. Asimismo, esta
tendencia se puede observar en las áreas de ingresos del hogar y nivel educativo, estando
estas dos áreas directamente correlacionadas entre sí, podemos ver que los hogares con
ingresos más altos y con mayor nivel educativo presentan una mayor confianza frente a
la inteligencia artificial.

26
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Ilustración 5: Encuesta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]

En las áreas donde se espera un mayor cambio debido a la introducción de la inteligencia


artificial podemos observar una tendencia clara hacia las industrias en las que esta tecno-
logía ya se encuentra presente en la actualidad de una manera notable.

Ilustración 6:Áreas que se espera que cambien a causa de la Inteligencia Artificial, Encues-
ta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]

27
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Si comparamos los datos de opinión de las áreas en las que la inteligencia artificial va a
suponer un cambio con los datos de opinión de las áreas en las que la inteligencia arti-
ficial va a suponer una mejora respecto a la no utilización de esta tecnología, vemos que
existen diferencias notables en varias áreas. Una de las más llamativas es el empleo, don-
de un 32% de personas consideran que la inclusión de inteligencia artificial va a afectar
al mercado laboral pero un 47% de personas consideran que esta inclusión va a afectar
de manera positiva. Es destacable la positividad con la que se percibe la mejora en áreas
como educación, entretenimiento o seguridad, mientas que el área que menor índice de
positividad presenta es la libertad o derechos legales.

La expectativa general de mejora a causa de la inteligencia artificial es positiva con un


61% de índice global. En este ámbito también se observa una mayor positividad en los
países en desarrollo respecto a países con una mayor implementación de esta tecnología.

Ilustración 7: Áreas que se espera que mejoren a causa de la Inteligencia Artificial, Encues-
ta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]

Como conclusiones de esta encuesta podemos extraer que hay una mayoría de la pobla-
ción que considera como positivo el impacto que la inteligencia artificial va a generar en
las distintas áreas de la vida, sin embargo se percibe una preocupación por las implica-
ciones que pueda tener la implantación de esta tecnología. También se puede observar
que existe una clara relación entre conocimiento y percepción. Cuanto más conocimiento,
la percepción de la Inteligencia Artificial y el Big Data es más crítica y real.

28
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

La IA es fundamental para algunas de las empresas con más éxito de la historia en tér-
minos de capitalización del mercado: Apple, Alphabet, Microsoft y Amazon. Junto a la
tecnología de la información y la comunicación (TIC) en general, la IA ha revolucionado
el acceso de personas de todo el mundo al conocimiento, el crédito y otras ventajas de la
sociedad global contemporánea. Dicho acceso ha contribuido a una reducción masiva de
la desigualdad mundial y la pobreza extrema, por ejemplo, al permitir que los granjeros
conozcan los precios justos y los cultivos más rentables y darles acceso a predicciones
meteorológicas precisas.

El creciente ritmo de transformación de nuestra cultura se debe a la abundancia de per-


sonas con buen nivel educativo y de salud y conectadas mediante TIC, pero también a la
mejora de nuestras capacidades gracias a la computación automática.

Para que las distintas sociedades globales entiendan que la inteligencia artificial es una
poderosa herramienta para mejorar la calidad de vida de los ciudadanos y la reducción
de las desigualdades es necesario poner en marcha diferentes estrategias educativas y
comunicativas que permitan un acercamiento de esta tecnología al público general.

29
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

2. Desafíos éticos de la inteligencia


artificial
“El uso de tecnologías de inteligencia artificial conlleva grandes
avances, pero también puede conllevar consecuencias no deseadas
que resulten perjudiciales, como el riesgo de la privacidad, la discri-
minación u opacidad en la toma de decisiones..”

Las tecnologías derivadas de la aplicación de inteligencia artificial han supuesto una re-
volución en el mundo de la tecnología que plantea un nuevo paradigma de trabajo. A
medida que estas innovaciones se vuelven más frecuentes en nuestras vidas, los desafíos
éticos de las aplicaciones de la IA son cada vez más evidentes y están sujetos al examen
de instituciones y gobiernos.

El uso de tecnologías de inteligencia artificial conlleva grandes avances, pero también


puede conllevar consecuencias no deseadas que resulten perjudiciales, como el riesgo de
la privacidad, la discriminación u opacidad en la toma de decisiones. El desafío ético so-
bre la inteligencia artificial cobra una especial importancia en el momento de desarrollo
en el que nos encontramos, pues estamos a tiempo de establecer límites y crear innova-
ciones de inteligencia artificial responsables y justas antes de que se realice la implanta-
ción de esta tecnología en el mercado.

Pese a la relevancia de la investigación desde un punto de vista ético de la inteligencia


artificial, este es un campo aun en desarrollo y sorprende la falta de puntos de referencia
que puedan ser utilizados como elementos comparativos entre los debates sociales más
amplios a cerca de esta tecnología.

Desde 2015 se puede observar un crecimiento exponencial en la cantidad de documentos


normativos generados por gobiernos, empresas privadas, equipos de investigación que
tratan de gestionar los desafíos éticos planteados por esta tecnología. Los temas más
tratados en este tipo de documentos son recurrentes y generalmente se centran en la
privacidad, el tratamiento de datos personales, la responsabilidad, la explicabilidad de los
algoritmos y la transparencia de los mismos.

30
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Desde Boston, se puso en marcha el proyecto AI Ethics Labs, el cual reúne a investigado-
res y profesionales de diversas disciplinas para detectar y resolver problemas relaciona-
dos con el diseño ético en IA. A través de la colaboración entre informáticos, abogados
en ejercicio, académicos del derecho y filósofos, el laboratorio ofrece un enfoque integral
para el diseño ético de la tecnología relacionada con la IA. El objetivo del proyecto es
mejorar el desarrollo tecnológico mediante la integración de la ética desde las primeras
etapas de diseño y desarrollo para el beneficio mutuo de la industria y las comunidades.
Con ello se busca proporcionar orientación ética a investigadores, desarrolladores y le-
gisladores. [20]

Esta formación basa su funcionamiento en lo que llaman The PiE (Puzzle-solving in


ethics) Model. Toda la base de la investigación ética puede reducirse de una manera muy
simplista en una pregunta: ¿Qué es lo correcto? El modelo PiE (resolución de acertijos en
ética) se centra en esta pregunta central de manera sistemática, integrando la resolución
de acertijos éticos en todo el proceso de innovación para garantizar que los problemas
éticos se manejen de la manera correcta y en el momento adecuado. El objetivo de este
esquema es proporcionar un enfoque integral, sistemático, analítico, crítico e innovador
de las cuestiones éticas. Explica los acertijos éticos y combina el razonamiento ético con
el pensamiento sistémico y el pensamiento de diseño para encontrar soluciones.

En su estrategia abarca distintas áreas de desarrollo de un proyecto desde un punto de


vista ético:

• Hoja de ruta de ética para la IA: Trazar un roadmap ético dentro de cada organiza-
ción, permite evaluar las necesidades éticas de la misma y trazar una estrategia de
aplicación de modelos éticos.

• Estrategia de ética para la IA: Permite definir procedimientos operativos y estable-


cer una estructura de trabajo para problemas éticos complejos recurrentes median-
te la creación de pautas, procesos y estructuras organizacionales

• Análisis de ética de IA para detectar los acertijos éticos de un producto o proyecto


y encontrar soluciones para los mismos

• Capacitación en ética de IA para equipar a los diseñadores, desarrolladores y ad-


ministradores de tecnología con herramientas y habilidades para convertirse en
“primeros en responder” para navegar por problemas éticos.

31
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Esta herramienta cuenta con la capacidad de rastrear los artículos publicados sobre el
tema y analizar los mismos, comprendiendo las tendencias y debates sociales que surgen
entorno al tema.

Ilustración 8: Model ético de PiE por AI Ethics Lab

Siguiendo su camino, en Suecia ha surgido un proyecto similar, cuyo objetivo también


es proporcionar orientación y apoyo en la implementación de la ética en el desarrollo de
la IA. Un ejemplo de su trabajo se centra en la aplicación de la inteligencia artificial a la
medicina. Históricamente, la medicina clínica ha pasado por alto la diversidad de género,
racial y geográfica. Esto significa que los datos que se utilizan actualmente para entrenar
algoritmos utilizados para el diagnóstico médico corren el riesgo de ser sesgados, y que
las soluciones de IA incluso refuerzan este sesgo con el tiempo. Por ejemplo, los algorit-
mos de detección de cáncer de piel corren el riesgo de ser menos precisos cuando se usan
en pacientes de piel oscura, ya que están entrenados en imágenes de piel clara.

En un intento por abordar aspectos éticos como este, tanto los organismos públicos de
toma de decisiones como la industria y las instituciones académicas han elaborado una
serie de listas de verificación y pautas para una IA ética y confiable. Sin embargo, imple-
mentar estas pautas y ponerlas en práctica a menudo resulta ser un desafío. Por lo tanto,
AI Suecia está lanzando el Laboratorio Sueco de Ética de la IA con el objetivo de ayudar a
que la ética de la IA en Suecia pase de pautas abstractas a una aplicación práctica.

32
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

La proliferación de este tipo de organizaciones es un reflejo del crecimiento de esta área.


En un análisis realizado por el AI Index de Stanford [22] en el que se analiza el volumen
de publicaciones relacionadas con la ética en la inteligencia artificial entre 2015 y 2020
mostro un total de 117 documentos con esta temática.

Los datos muestran que las organizaciones profesionales y de investigación fueron de las
primeras en desplegar documentos sobre principios de la IA, y que las empresas privadas
son las que más han publicado hasta la fecha sobre principios de la IA entre todos los
tipos de organizaciones. Europa y Asia Central tienen el mayor número de publicaciones
hasta 2020 (52), seguidas de América del Norte (41) y Asia Oriental y el Pacífico (14). En
lo que respecta al despliegue de los principios éticos, 2018 fue el año en que las empresas
tecnológicas -incluidas IBM, Google y Facebook-, así como varios organismos guberna-
mentales del Reino Unido, la UE y Australia, marcaron claramente el punto álgido.

Ilustración 9: Informe 2021 de Artificial Intelligence Index

Esta tendencia se observa también en la investigación donde se ha comprobado que los


investigadores están escribiendo más artículos que se centran directamente en la ética de
la inteligencia artificial. Sumado a los trabajos dedicados exclusivamente a tratar el tema
de la ética en la inteligencia artificial, también se ha observado un aumento de la integra-
ción de este tema dentro de los trabajos técnicos, incluyendo análisis éticos del impacto
de la tecnología desarrollada. Además, recientemente han proliferado las conferencias y
talleres que se centran específicamente en la IA responsable, como la nueva Conferencia
sobre Inteligencia Artificial, Ética y Sociedad de la Asociación para el Avance de la Inte-
ligencia Artificial y la Conferencia sobre Equidad, Responsabilidad y Transparencia de la
Asociación de Maquinaria Informática.

33
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Otro importante indicador de la relevancia de este tema en la sociedad viene marcado por
la presencia de este tema en la prensa y la relevancia que le de la misma.

Tomando los datos del mismo artículo de Artificial Intelligence Index, este analizó 3.047
artículos relacionados con las tecnologías de inteligencia artificial, las cuales incluyeran
términos como “derechos humanos”, “valores humanos”, “responsabilidad”, “control hu-
mano”, “equidad”, “discriminación”, “transparencia”, “explicabilidad”, “seguridad”, “res-
ponsabilidad” o “privacidad”. Este análisis arrojo que los artículos relacionados con la
orientación y los márcos técnicos de la IA encabezaron la lista de las noticias más cubier-
tas (21%) en 2020, seguidas por las de educación e investigación (20%) y el reconocimien-
to facial (20%).

Los cinco temas de las noticias que recibieron más atención en 2020 relacionados con el
uso ético de la IA fueron:

• La publicación del libro blanco de la comisión europea sobre la IA (5,9%)

• El despido por parte de Google del investigador de ética Timnit Gebru (3,5%)

• El comité de ética de la IA formado por las naciones unidas (2,7%)

• El plan de la ética de la IA del Vaticano (2,6%)

• La salida de IBM de los negocios del reconocimiento facial (2,5%)

Ilustración 10: Informe 2021 de Artificial Intelligence Index

De estos análisis podemos extraer la conclusión de que la relevancia de a la ética dentro


de la inteligencia artificial es cada vez mayor. Al mismo tiempo no todas las connotacio-
nes éticas están teniendo la misma relevancia a la hora de ser analizadas ni de priorizarse
en el proceso de desarrollo de modelos de IA.

34
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Algunos de los temas más controvertidos en el desarrollo de esta tecnología debido a


que su utilización puede repercutir en importantes beneficios económicos para grandes
corporaciones están en el punto de mira de gobiernos y organismos reguladores.

2.1. Privacidad y protección de datos


La privacidad y protección de datos es una de las principales preocupaciones a la hora
de implementar soluciones de inteligencia artificial. Estas se ven desafiadas por el rápi-
do desarrollo y veloz despliegue de la IA, pues su utilización implica necesariamente el
tratamiento de los datos masivos, dentro de los cuales se incluyen diferentes categorías
de datos personales. La mayoría de las aplicaciones de inteligencia artificial requieren
grandes volúmenes de datos para llevar a cabo su entrenamiento, y aún más datos para
aplicar los modelos y realizar la toma de decisiones. En este aspecto, debemos recordar
que la disponibilidad de grandes volúmenes de datos no solo es necesario para realizar un
correcto entrenamiento de los modelos, si no para evitar que estos realicen un overfiting
de los datos produciendo decisiones sesgadas y poco fiables.

AI y Big Data van de la mano, lo que ha llevado a muchos a preguntarse si es posible usar
AI mientras se protegen los derechos fundamentales de protección de datos personales.
Las empresas que trabajan con inteligencia artificial ya se enfrentan a una desventaja
ante la opinión pública en términos de privacidad. Según la Organización Europea de
Consumidores en 2020, una encuesta mostró que entre el 45 y el 60% de los europeos es-
tán de acuerdo en que la IA provocará un mayor abuso de los datos personales.

Hay muchos servicios y productos populares en línea que se basan en grandes conjun-
tos de datos para enseñar y mejorar sus algoritmos de IA. Algunos de los datos de esos
conjuntos de datos podrían ser considerados privados incluso por los usuarios menos
conscientes de la privacidad. Los flujos de datos procedentes de redes, páginas de medios
sociales, teléfonos móviles y otros dispositivos contribuyen al volumen de información
que las empresas utilizan para entrenar los sistemas de aprendizaje automático. Gracias a
la extralimitación en el uso de los datos personales y a la mala gestión de algunas empre-
sas, la protección de la privacidad se está convirtiendo en una cuestión de política pública
en todo el mundo.

Muchos de nuestros datos sensibles se recopilan para mejorar los procesos habilitados
por la Inteligencia Artificial. Muchos de los datos analizados también están impulsados
por la adopción del machine learning, ya que los sofisticados algoritmos necesitan tomar
decisiones en tiempo real, basándose en esos conjuntos de datos. Los algoritmos de bús-
queda, los asistentes de voz y los motores de recomendación son solo algunas soluciones
que aprovechan la IA basada en grandes conjuntos de datos de usuarios del mundo real.

35
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Ahora bien, cabe preguntarse cuáles son los escenarios en los que la IA pueda generar
un riesgo al titular de datos personales. A fin de responder esto, debemos señalar que
existen dos aspectos de la IA que son particularmente relevantes para la privacidad. El
primero es que la IA en sí misma puede tomar decisiones automatizadas y, el segundo, es
que el sistema se desarrolla aprendiendo de la experiencia e información proporcionada.
Entonces, cabe preguntarse: ¿Es posible combinar el desarrollo de la IA con un adecuado
tratamiento de los datos personales?

Si nos basamos en los principios de las leyes de protección de datos la inteligencia arti-
ficial debe cumplir con los principios de limitación de propósito, precisión, limitación de
almacenamiento e integridad y confidencialidad.

Para ello debemos tener en cuenta distintos elementos dentro de la protección de datos:

• Legalidad: El tratamiento de los datos personales se hace conforme a lo estable-


cido en la legislación vigente. En estos casos siempre hay que tener en cuenta la
leyes nacionales e internacionales que puedan aplicarse en cada caso. En Europa
en todos los casos es necesario que todos los tratamientos de datos personales
sean conformes con la ley General De Protección de Datos (GDPR; General Data
Protection Regulation) y dentro de España además de cumplir con la GDPR será
necesario trabajar conforme a la ley LOPD (Ley Organica de Protección de Datos)
y deberá demostrarlo ante la Agencia Española de Protección de Datos (AEPD).

• Consentimiento: El tratamiento de los datos personales debe realizarse bajo en


consentimiento o autorización de la persona titular de los mismos.

• Finalidad: Los datos personales no pueden ser utilizados con una finalidad distin-
ta a la establecida en el momento de su recopilación.

• Proporcionalidad: Todo tratamiento de datos personales debe ser apropiado a la


finalidad para la que éstos hubiesen sido recopilados, usando la información que
sea imprescindible y suficiente, sin excesos.

• Calidad: Los datos personales que se tratan deben ser veraces, exactos y adecua-
dos. Deben conservarse de forma tal que se garantice su seguridad y solo por el
tiempo necesario para cumplir con la finalidad del tratamiento.

• Seguridad: El titular del banco de datos personales y el encargado del tratamiento


deben adoptar las medidas necesarias para garantizar la seguridad y confidencia-
lidad de los datos personales que administran.

• Nivel de protección adecuado: Para el flujo transfronterizo de datos personales,


se debe garantizar un nivel suficiente de protección para los datos personales que
se vayan a tratar o, por lo menos, equiparable a lo previsto por esta Ley o por los
estándares internacionales en la materia.

36
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Para poder cumplir con estos estándares, el desarrollo de la inteligencia artificial debe
tener en cuenta una serie de principios de protección de datos

Limitación

El principio de limitación del tratamiento de los datos personales requiere que la aplica-
ción de medidas técnicas y organizativas para garantizar que sean objeto de tratamiento
los datos que únicamente sean precisos para cada uno de los fines específicos del tra-
tamiento reduciendo, la extensión del tratamiento, limitando a lo necesario el plazo de
conservación y su accesibilidad [23].

Esto requiere que los controladores que usan sistemas de inteligencia artificial deter-
minen el propósito de uso del sistema de inteligencia artificial al comienzo de su ca-
pacitación o implementación, y realizar una reevaluación de esto para determinar si el
procesamiento del sistema arroja resultados inesperados. Los datos personales solo se
recopilarán para “fines específicos, explícitos y legítimos” y no se utilizarán de una mane-
ra que sea incompatible con el propósito original.

Precisión

El Principio de precisión o exactitud, que obliga a los responsables a disponer de medidas


razonables para que los datos se encuentren actualizados, se supriman o modifiquen sin
dilación cuando sean inexactos con respecto a los fines para los que se tratan.

El principio de precisión requiere que los datos personales sean precisos y estén actuali-
zados. Este principio es de especial importancia para sistemas totalmente automatizados,
donde la salida podría tener un impacto significativo en individuos con poca supervisión
humana.

Alimentar un sistema de IA con datos inexactos podría disminuir la calidad del resulta-
do, y este principio requiere que los usuarios de IA adopten un enfoque particularmente
vigilante para garantizar que el conjunto de datos no se diluye con datos de mala calidad.

Procesamiento seguro

El principio de que los datos personales deben procesarse de forma segura requiere que
quienes los desarrollan o usan IA considerarán los problemas de riesgo de seguridad
particulares que dicho uso puede generar y lo mitigarán.

Además del posible acceso no autorizado a datos personales, la falta de seguridad adecua-
da puede conducir a que terceros no autorizados accedan y manipulen el algoritmo para
cambiar su lógica y resultados. Esto puede tener serias consecuencias para las personas
donde, por ejemplo, se toma una decisión con respecto a ellos por o con la ayuda de este
algoritmo.

37
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Accountability

La rendición de cuentas o accountability requiere que aquellos que procesan datos perso-
nales establezcan una organización integral, políticas y procedimientos para garantizar
que los datos personales se procesen de conformidad las leyes de protección de datos de
la jurisprudencia en la que se esté operando. Y puedan demostrar esas políticas y proce-
dimientos.

En el contexto de la inteligencia artificial y protección de datos, los controladores deben


rendir cuentas tanto a los reguladores como a las personas, y deben tener en cuenta la
probabilidad y gravedad de las consecuencias del uso de la IA en las personas. No pueden
simplemente desplegar un sistema de inteligencia artificial y luego culpar a ese sistema
cuando su salida daña a las personas o resulta en incumplimiento.

En el contexto de la IA, las partes que normalmente actuarían como procesadores, como
los desarrolladores de software o los diseñadores de sistemas, pueden actuar como co-
controladores (donde cada parte decide los propósitos y medios de su propio procesa-
miento de los datos personales utilizados por la IA) o como controladores conjuntos (por
ejemplo, cuando las partes desarrollan juntas un sistema de IA).

Dentro de la IA, el programa de gestión de privacidad de una organización incluye:

• liderazgo y supervisión

• evaluación de riesgos

• creación e implementación de políticas y procedimientos apropiados

• transparencia

• capacitación y conciencia

• control y monitorización

• respuesta y ejecución.

Los datos procesados, la forma en que se diseñan las aplicaciones y el alcance de la in-
tervención humana pueden afectar a los derechos, a la libre expresión, la protección de
los datos personales, la privacidad y las libertades políticas. Esta tecnología, aumenta las
posibilidades de rastrear y analizar los hábitos diarios de la gente. Por ejemplo, existe el
riesgo potencial de que la IA sea utilizada; violando las normas sobre protección de datos
de la UE y otras normativas, por las autoridades estatales u otras entidades para la vigi-
lancia masiva, y por los empleadores para observar el comportamiento de sus empleados.

38
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Al analizar grandes cantidades de datos e identificar los vínculos entre ellos, la IA tam-
bién puede utilizarse para rastrear y desanonimizar datos sobre personas, creando nuevos
riesgos de protección de los datos personales, incluso con respecto a conjuntos de datos
que no incluyen en sí mismos datos personales.

Cumplir con las diferentes normativas referentes a la protección de datos, puede suponer
un problema añadido al desarrollo de la inteligencia artificial. Estos modelos requieren el
uso masivo de datos para su entramiento y puesta en producción y las nuevas normativas
que se están generando están limitando la capacidad de las empresas para conseguir,
compartir y emplear estos datos.

Al mismo tiempo si este tipo de regulaciones no existieran, el uso masivo de datos perso-
nales comprometería la privacidad de los ciudadanos. Para mantener un equilibrio entre
la protección social y la evolución tecnológica de la inteligencia artificial, estas leyes pre-
sentan un lenguaje vago que abre la puerta a diferentes interpretaciones de las leyes. Esta
flexibilidad en los textos legales ha sido duramente criticada por asociaciones que velan
por la privacidad de los datos como European Digital Rigths, la cual ha publicado un in-
forme en el cual establece la necesidad de revisión de una serie de definiciones dentro de
la Ley General de Protección de datos de la Unión Europea.

“El artículo 4 del proyecto de Reglamento contiene 19 definiciones. EDRi da la bienvenida


a las nuevas definiciones enumeradas en la sección 4(9) a la sección 4(19). Al mismo tiem-
po, EDRi cree que una serie de definiciones y considerandos correspondientes, incluidas
las definiciones que ya existían en virtud de la Directiva 95/46/CE, necesitan mejoras y/o
aclaraciones.” [24]

https://edri.org/files/1012EDRi_full_position.pdf

Uno de los puntos más controversiales de las leyes de protección de datos pasa por la
transparencia de los mismos. Como hemos visto las principales las leyes de protección de
datos establecen que las personas deben de ser capaces de acceder y conocer el uso que
se está realizando de sus datos personales. Esta explicación debe ser clara y legible por
el público general lo cual se puede ver dificultado por el uso de sistemas de inteligencia
artificial para el procesado de los datos.

En este aspecto empresas e instituciones que trabajan en el desarrollo de inteligencia


artificial están incluyendo dentro de su flujo de trabajo técnicas de explicabilidad e inter-
pretabilidad que permitan que personas no especialistas en la materia puedan entender el
uso de los datos que está realizando el sistema y en base a que criterios toma las deciones.

Esto está suponiendo un importante desafío ya que muchos de estos modelos actualmen-
te trabajan como cajas negras donde incluso los ingenieros encargados del desarrollo de
estos sistemas son capaces de determinar cuál es el flujo de decisión que está siguiendo
el modelo.

39
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

2.1.1. Técnicas de interpretabilidad y explicabilidad


de modelos de Inteligencia artificial
Cuando hablamos de interpretabilidad, hablamos de ser capaces de entender los resulta-
dos que arroja un modelo de Inteligencia Artificial. Si no somos capaces de explicar de
manera sencilla su funcionamiento, nos encontraremos ante un modelo conocido como
Caja Negra. Estos modelos suponen un problema no solo desde el punto de vista funcio-
nal, ya que si no somos capaces de identificar el funcionamiento del mismo no podemos
saber si está funcionando correctamente, si no también desde el punto de vista ético.
Necesitamos ser capaces de interpretar los resultados de los modelos que desarrollamos
para saber si podemos encontrarnos ante problemas de tipo ético debido a las decisiones
que este esté tomando. Por ello cuando desarrollamos modelos no podemos quedarnos
únicamente con las métricas de performance y accuracy de los modelos, si no que debe-
mos ir más allá y abordar el detalle y la interpretación de por qué nuestros modelos toman
las decisiones que toman y contribuir así a un uso más responsable de la tecnología.

Para poder abordar la explicación de los modelos de inteligencia artificial debemos abor-
dar dos conceptos principales: la explicabilidad y la interpretabilidad. Aunque estos tér-
minos se encuentran estrechamente ligados entre si, la literatura establece una diferen-
ciación entre ellos.

• La interpretabilidad se refiere al grado en que se puede observar una causa y su


efecto dentro de un sistema, es decir, en qué medida se puede explicar el resultado
de un modelo dado un cambio en los datos de entrada.

• La explicabilidad se refiere al grado en el que el comportamiento del modelo se


puede explicar en términos humanos, considerando tanto el resultado como todo
el proceso de la toma de decisión. Esto incluye:

• Explicar los datos utilizados y cómo se obtienen los resultados.

• Explicar cómo se producen los outputs a través de los inputs.

• Explicar la intención con la que el sistema afecta a las partes involucradas. [25]

Por tanto, el concepto de explicabilidad se puede entender como un concepto más amplio,
con un objetivo más ambicioso que el de la interpretabilidad.

La búsqueda de interpretabilidad en modelos de inteligencia artificial surgió de manera


paralela al crecimiento de la complejidad de los mismos. Las técnicas de Deep learning
y la aplicación de redes neuronales, donde las estructuras de datos se vuelves más com-
plejas y la relación y volumen de variables dificultan la interpretación de los cálculos que
realiza el modelo. El objetivo de los análisis de interpretabilidad de los modelos se centrar
en el entendimiento de las relaciones entre las variables, así como el análisis de resulta-
dos y conclusiones.

40
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Una variable que debemos tener en cuenta cuando planteamos la interpretabilidad de los
modelos de inteligencia artificial, es que existe una relación inversamente proporcional
entre la capacidad predictiva de un modelo y la interpretabilidad del mismo. La imple-
mentación de algoritmos de alto rendimiento con un alto grado de interpretabilidad es
un importante desafío del desarrollo de inteligencia artificial. A medida que más y más
empresas comienzan a utilizar técnicas de ciencia de datos para impulsar el crecimiento,
y estas dependen cada vez más del uso de dichas técnicas, comprender el equilibrio entre
precisión e interpretabilidad se vuelve aún más relevante para el éxito analítico.

Entonces, ¿cuál es este compromiso entre precisión e interpretabilidad? Muchas técnicas


de aprendizaje profundo hacen el mejor trabajo de predicción, pero son muy difíciles y
complejas de interpretar. Para un usuario comercial, estas interacciones complejas entre
las variables independientes son difíciles de entender y es posible que no siempre tenga
sentido implementar este tipo de modelos.

En la figura 5, podemos observar como la interpretabilidad de un modelo se reduce a


medida que aumenta la complejidad de los algoritmos utilizados para su desarrollo. Al
mismo tiempo la presión de un modelo se ve incrementada con la complejidad de los
algoritmos. Para poner en marcha un proyecto de inteligencia artificial debemos tener en
cuenta el grado de explicabilidad que requerirá a la hora de elegir el tipo de algoritmos
que elegiremos para la implementación del modelo.

Figure 5: Interpretabilidad vs Capacidad Predictiva [26]

41
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

No obstante, si no se quiere renunciar al uso de técnicas menos interpretables, se puede


buscar la interpretabilidad a partir del análisis de los outputs del modelo. El objetivo en
este caso consiste en extraer información a través de diversos métodos, logrando conse-
guir un entendimiento del modelo de forma indirecta. Por ejemplo, se pueden analizar
pequeños cambios en el modelo o los datos de entrenamiento y observar el resultado, o
construir modelos interpretables más sencillos que expliquen el modelo complejo, aun-
que dichos modelos puedan tener un rendimiento inferior.

Este tipo de técnicas se conocen como técnicas post-hoc. Una vez que se ha determi-
nado que existen diferencias entre las medias, las pruebas de rango post hoc permiten
determinar qué medias difieren. La prueba de rango post hoc identifica subconjuntos
homogéneos de medias que no se diferencian entre sí.

Cuando hablamos de interpretabilidad debemos dividir los modelos de inteligencia ar-


tificial en dos grupos; por un lado, podemos encontrar los modelos considerados como
simples y por otro aquellos que identificamos como complejos.

Los modelos simples son aquellos modelos que son muy fácilmente interpretables/expli-
cables y de baja precisión; sin embargo, los modelos complejos son de naturaleza de caja
negra, casi imposibles de explicar y con una precisión muy alta.

Los modelos lineales son fáciles de interpretar, por ejemplo: con la ayuda de la magnitud
y el signo de los pesos de las características en la ecuación del modelo, nos da la idea del
impacto de las características en la salida. En el caso de los árboles de decisión, podemos
movernos desde el nodo raíz hacia los nodos hoja a través de las divisiones (según Gini,
ganancia de información o entropía) y analizar el árbol para comprender/interpretar el
modelo fácilmente. Aunque estos modelos son altamente interpretables, estos modelos
tienen varios problemas: los modelos lineales no son precisos porque no pueden explicar
el comportamiento no lineal de las características, mientras que los árboles de decisión
también son inexactos y tienen el problema de sobreajuste.

Los bosques aleatorios tienen una alta precisión y una varianza / sobreajuste muy bajo
en comparación con los árboles de decisión, pero los bosques aleatorios tienen una gran
cantidad de árboles que no se pueden interpretar en cantidades tan grandes. Por lo tanto,
la interpretabilidad en tales modelos es un gran problema.

42
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 6: Accuracy vs Interpretability [27]

La importancia de ser capaces de interpretare de manera correcta la salida de los modelos


es cada vez mayor. No podemos presentar un proyecto de inteligencia artificial en ningún
ámbito de mercado guiándonos únicamente porque el modelo presenta una buen métrica
AUC- ROC (Área Under the Curve (AUC) - receiver operating characteristic curve (ROC)
o un error cuadrático muy pequeño, siempre vamos a tener que defender de qué manera
nuestro modelo está tomando las decisiones. Debemos conocer la dirección y la magni-
tud en la que todas las características significativas están impactando el resultado de un
modelo. Esto se puede lograr fácilmente mediante modelos lineares generalizados; sin
embargo, en el caso de modelos complejos, obtenemos valores de importancia relativa de
las características, pero no son muy útiles porque no nos dicen nada sobre la magnitud y
la dirección del impacto en la salida del modelo.

Para abordar la interpretabilidad de los modelos complejos, existen algunas técnicas


(LIME, Shapely, etc.) a través de las cuales creamos un modelo de explicación, que es un
modelo lineal simple para explicar el modelo complejo con mucha facilidad.

43
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 7: Modelos de explicabilidad de Inteligencia Artificial [27]

Estos modelos de interpretabilidad de inteligencia artificial generalmente son más senci-


llos que los modelos que tratan de explicar y no tienen una precisión tan exacta.

Cuando hablamos de explicabilidad, debemos de contestar a la pregunta de ¿Por qué mi


modelo actúa de esta manera? ¿Por qué el tratamiento no funcionó en el paciente? ¿Por
qué mi préstamo fue rechazado? El término “explicación” se refiere al proceso social y
cognitivo de explicar, pero también al producto de estos procesos. El encargado de llevar
a cabo las explicaciones puede ser una persona o un sistema

Las explicaciones de un modelo de inteligencia artificial cumplen los siguientes princi-


pios: [28]

• Las explicaciones son de contraste. Las personas generalmente no preguntan


cuál es el motivo para llegar a una predicción, sino por qué se hizo esta predicción
en lugar de otra. En el caso del aprendizaje automático interpretable las personas
no quieren una explicación completa para una predicción, pero quieren comparar
cuáles fueron las diferencias con la predicción de otra instancia. La creación de
explicaciones contrastivas depende de la aplicación porque requiere un punto de
referencia para comparar.

• Las explicaciones se seleccionan: Las personas no esperan conocer todas las po-
sibles causas de un evento y la explicación asociada a ellas. Estamos acostum-
brados a seleccionar una o dos causas todas las posibles como la explicación del
evento. Por ejemplo, una buena predicción puede realizarse en base a distintas
variables, pero para hacer que un modelo sea explicable solo necesitamos saber el
origen de la predicción en base a una o dos de ellas.

44
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• Las explicaciones son sociales: Estas forman parte de la interacción entre el en-
cargado de llevar a cabo la explicación y el receptor de la misma. El contexto social
determina el contenido y la naturaleza de las explicaciones. A la hora de aportar ex-
plicaciones sobre un modelo de inteligencia artificial es necesario prestar atención
al entorno social de su aplicación de aprendizaje automático y al público objetivo.
Obtener la parte social del modelo de aprendizaje automático correcta depende
completamente de su aplicación específica. Esta parte del proceso suele contar
con el apoyo de expertos del campo de humanidades que puedan ayudar a sentar
el contexto de la situación.

• Las explicaciones se centran en lo anormal: Las personas se centran en las cau-


sas poco comunes para explicar los eventos. Estas son causas que tenían una pe-
queña probabilidad, pero sin embargo sucedieron. La eliminación de estas causas
anormales cambiaría mucho el resultado (explicación contrafáctica). Las personas
suelen considerar este tipo de causas “inverosímiles” como buenas explicaciones.
Si una de las características de entrada para una predicción fue anormal en algún
sentido (como una categoría rara de una característica categórica) y la caracte-
rística influyó en la predicción, debe incluirse en una explicación, incluso si otras
características “normales” tienen la misma influencia en la predicción como la
anormal.

• Las explicaciones son veraces: Las buenas explicaciones demuestran ser verda-
deras en la realidad (es decir, en otras situaciones). La explicación debe predecir el
evento con la mayor veracidad posible, lo que en el aprendizaje automático a veces
se denomina fidelidad.

• Las explicaciones son consistentes con las creencias previas de las personas
que reciben la explicación: Los humanos tienden a ignorar la información que
es inconsistente con sus creencias anteriores. Este efecto se denomina sesgo de
confirmación. Las explicaciones no se salvan de este tipo de sesgos. Las personas
tenderán a devaluar o ignorar las explicaciones que no concuerden con sus creen-
cias. El conjunto de creencias varía de una persona a otra, pero también existen
creencias previas basadas en grupos, como las visiones políticas del mundo. Las
buenas explicaciones son consistentes con las creencias previas. Esto es difícil de
integrar en el aprendizaje automático y probablemente comprometería drástica-
mente el rendimiento predictivo.

• Las explicaciones son generales y probables: Una causa que puede explicar mu-
chos eventos es muy general y podría considerarse una buena explicación. Hay
que tener en cuenta que esto contradice la afirmación de que las causas anorma-
les son buenas explicaciones. Las causas anormales son, por definición, raras en
el escenario dado. En ausencia de un evento anormal, una explicación general se
considera una buena explicación. La generalidad se puede medir fácilmente por el
soporte de la función, que es el número de instancias a las que se aplica la explica-
ción dividida por el número total de instancias.

45
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Las técnicas de explicabilidad en IA buscan que no haya que sacrificar el rendimiento de


un modelo para entender cómo funciona. Se trata de un subconjunto de técnicas que nos
ayudan a explicar sus decisiones a en base a sus resultados.

En primer lugar, estas técnicas se clasifican en función de cómo se relacionan con el mo-
delo y pueden ser:

• Específicas del modelo o para un tipo concreto de algoritmo, que genera las expli-
caciones en función de datos concretos de su desarrollo.

• Agnósticas, que infieren el porqué de las decisiones de cualquier modelo. No se


centran en los detalles técnicos, sino en qué salidas da ante unas entradas concre-
tas.

De hecho, también se pueden clasificar según qué salida o información nos dan en:

• Técnicas de explicación globales, que nos dan explicaciones del modelo en gene-
ral.

• Técnicas de explicación individuales, al nivel de una predicción o punto de datos


en concreto.

Y ese output también presenta la información de diferentes formas: explicación sobre las
variables relevantes, cómo han contribuido las variables a un valor concreto de predic-
ción, explicaciones basadas en reglas, explicaciones visuales (taxonomía), etc.

La forma más fácil de lograr la interpretabilidad es usar solo un subconjunto de algorit-


mos que crean modelos interpretables. La regresión lineal, la regresión logística y el árbol
de decisión son modelos interpretables de uso común.

La siguiente tabla ofrece una descripción general de los tipos de modelos interpretables
y sus propiedades. Un modelo es lineal si la asociación entre las características y el obje-
tivo se modela de forma lineal. Un modelo con restricciones de monotonicidad garantiza
que la relación entre una característica y el resultado objetivo siempre va en la misma
dirección en todo el rango de la característica: un aumento en el valor de la característica
siempre conduce a un aumento o siempre a una disminución en el resultado objetivo.

46
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 8: Clasificiación de algoritmos interpretables [29]

Para modelos más complejos es necesario aplicar técnicas de interpretabilidad. Estas


técnicas generalmente son agnósticas al modelo que estamos utilizando y pueden em-
plearse con múltiples modelos. Utilizar métodos de interpretación de modelos de caja
negra separando las explicaciones del modelo de aprendizaje automático tiene presenta
algunos puntos positivos. La principal ventaja de estos métodos de interpretación inde-
pendientes del modelo es la flexibilidad que aportan. Los desarrolladores de inteligencia
artificial pueden emplear cualquier modelo de aprendizaje automático que encaje en su
desarrollo, ya que los métodos de interpretación se pueden aplicar a cualquier modelo.
Cualquier cosa que se base en una interpretación de un modelo de aprendizaje automáti-
co, como un gráfico o una interfaz de usuario, también se vuelve independiente del mode-
lo de aprendizaje automático subyacente. Por lo general, no solo uno, sino muchos tipos
de modelos de aprendizaje automático se evalúan para resolver una tarea, y cuando se
comparan modelos en términos de interpretabilidad, es más fácil trabajar con explicacio-
nes independientes del modelo, porque el mismo método se puede usar para cualquier
tipo de modelo.

Los aspectos deseables de un sistema de explicación independiente del modelo son:

• Flexibilidad del modelo: el método de interpretación puede funcionar con cual-


quier modelo de aprendizaje automático, como modelos lineales y redes neurona-
les profundas.

• Flexibilidad de explicación: no está limitado a una única forma de explicación.


En algunos casos, puede ser útil tener una fórmula lineal, en otros casos, un gráfico
con características importantes.

• Flexibilidad de representación: el sistema de explicación debe poder utilizar una


representación de características diferente a la del modelo que se está explicando.
Para un clasificador de texto que usa vectores de incrustación de palabras abstrac-
tas, podría ser preferible usar la presencia de palabras individuales para la expli-
cación.

47
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Cuando hablamos de explicabilidad de modelos de inteligencia artificial no nos limita-


mos únicamente al algoritmo, sino a todo el conjunto de variables que rodean al modelo
de IA. Si dibujamos todos los elementos que existen entre el mundo real y el receptor final
de los resultados de un modelo de inteligencia artificial obtenemos el diagrama represen-
tado en la imagen 9.

La capa inferior es el Mundo. Esto podría ser literalmente la naturaleza misma, como la
biología del cuerpo humano y cómo reacciona a la medicación, pero también cosas más
abstractas como el mercado inmobiliario. La capa Mundo contiene todo lo que se puede
observar y es de interés. En última instancia, queremos aprender algo sobre el mundo e
interactuar con él.

La segunda capa es la capa de datos. Tenemos que digitalizar el mundo para que sea pro-
cesable para las computadoras y también para almacenar información. La capa de datos
contiene cualquier cosa, desde imágenes, textos, datos tabulares, etc.

Al ajustar modelos de aprendizaje automático basados en la capa de datos, obtenemos la


capa de modelo de caja negra. Los algoritmos de aprendizaje automático aprenden con
datos del mundo real para hacer predicciones o encontrar estructuras.

Encima de la capa del modelo de caja negra se encuentra la capa de métodos de interpre-
tación, que nos ayuda a lidiar con la opacidad de los modelos de aprendizaje automático.
¿Cuáles fueron las características más importantes para un diagnóstico en particular?
¿Por qué una transacción financiera fue clasificada como fraude?

La última capa está ocupada por una persona. Este es el último eslabón de la cadena y el
consumidor de las explicaciones.

Esta abstracción de múltiples capas también ayuda a comprender las diferencias en los
enfoques entre los estadísticos y los profesionales del aprendizaje automático. Los es-
tadísticos se ocupan de la capa de datos, como la planificación de ensayos clínicos o el
diseño de encuestas. Omiten la capa Modelo de caja negra y van directamente a la capa
Métodos de interpretación. Los especialistas en aprendizaje automático también se ocu-
pan de la capa de datos, como la recopilación de muestras etiquetadas de datos. Luego
entrenan un modelo de aprendizaje automático de caja negra. La capa Métodos de inter-
pretación se omite y los humanos se ocupan directamente de las predicciones del modelo
de caja negra.

48
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 9: El panorama general del aprendizaje automático explicable. El mundo real atra-
viesa muchas capas antes de llegar al ser humano en forma de explicaciones. [30]

Las técnicas de interpretabilidad basada en el análisis toman como datos de entrada el


modelo entrenado (junto con las predicciones ya realizadas), y extraen información so-
bre las relaciones que el modelo ha aprendido, ya sea entrenando modelos interpretables
con las predicciones del modelo no interpretable (conocido como la construcción de un
modelo subrogado), o realizando perturbaciones en los datos de entrada y estudiando la
reacción del modelo.

49
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Algunos de los métodos más utilizados son los siguientes

Local Interpretable Model-Agnostic Explanation (LIME)

Los modelos sustitutos locales son modelos interpretables que se utilizan para explicar
las predicciones individuales de los modelos de aprendizaje automático de caja negra. Las
explicaciones locales interpretables agnósticas del modelo (LIME), es un artículo [31] en
el que los autores proponen una implementación concreta de modelos sustitutos locales.
Los modelos sustitutos se entrenan para aproximarse a las predicciones del modelo de
caja negra subyacente. En lugar de entrenar un modelo sustituto global, LIME se enfoca
en entrenar modelos sustitutos locales para explicar predicciones individuales.

LIME es independiente del modelo, lo que significa que se puede aplicar a cualquier mo-
delo de aprendizaje automático. La técnica intenta comprender el modelo perturbando
la entrada de muestras de datos y comprendiendo cómo cambian las predicciones. LIME
proporciona interpretabilidad del modelo local. Estee modifica una sola muestra de datos
ajustando los valores de las características y observa el impacto resultante en la salida.
A menudo, esto también está relacionado con lo que les interesa a los humanos cuando
observan el resultado de un modelo. La pregunta más común es: ¿por qué se hizo esta
predicción o qué variables causaron la predicción?

Figure 10: LIME explica las predicciones del modelo a nivel de muestra de datos. Permite a los
usuarios finales interpretar estas predicciones y tomar acciones basadas en ellas.[32]

Otras técnicas de interpretación del modelo solo responden la pregunta anterior desde
la perspectiva de todo el conjunto de datos. La importancia de las características explica
en un nivel de conjunto de datos qué características son importantes. Le permite verificar
hipótesis y si el modelo se ajusta demasiado al ruido, pero es difícil diagnosticar predic-
ciones específicas del modelo.

Un requisito clave para LIME es trabajar con una representación interpretable de la entra-
da, que sea comprensible para los humanos. Ejemplos de representaciones interpretables
son, por ejemplo, un vector BoW para NLP, o una imagen para visión artificial. Las incrus-
taciones densas, por otro lado, no son interpretables, y la aplicación de LIME probable-
mente no mejorará la interpretabilidad.

50
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

El resultado de LIME es una lista de explicaciones que refleja la contribución de cada


característica a la predicción de una muestra de datos. Esto proporciona interpretabilidad
local y también permite determinar qué cambios de características tendrán el mayor im-
pacto en la predicción.

Aunque aparentemente LIME puede ser un método sencillo para abordar la interpretabi-
lidad de modelos de inteligencia artificial, existen varios factores que debemos tener en
cuenta a la hora de implementar este sistema.

Figure 11: Funcionamiento local de LIME [31]

En la implementación actual, solo se utilizan modelos lineales para aproximar el com-


portamiento local. Hasta cierto punto, esta suposición es correcta cuando se observa una
región muy pequeña alrededor de la muestra de datos. Sin embargo, al expandir esta
región, es posible que un modelo lineal no sea lo suficientemente poderoso para explicar
el comportamiento del modelo original. La no linealidad en las regiones locales ocurre
en aquellos conjuntos de datos que requieren modelos complejos no interpretables. No
poder aplicar LIME en estos escenarios es una trampa importante.

En segundo lugar, el tipo de modificaciones que deben realizarse en los datos para obte-
ner las explicaciones adecuadas suelen ser específicas del caso de uso. Los autores dieron
el siguiente ejemplo en su artículo:

“Por ejemplo, un modelo que predice que las imágenes en tonos sepia son retro no puede
explicarse por la presencia o ausencia de superpíxeles.”

A menudo, las perturbaciones simples no son suficientes. Idealmente, las perturbaciones


estarían impulsadas por la variación que se observa en el conjunto de datos. Dirigir ma-
nualmente las perturbaciones en el otro probablemente no sea una gran idea, ya que lo
más probable es que introduzca un sesgo en las explicaciones del modelo.

LIME es una gran herramienta para explicar qué están haciendo los clasificadores (o mo-
delos) de aprendizaje automático. Es independiente del modelo, aprovecha ideas simples
y comprensibles y no requiere mucho esfuerzo para ejecutarse. Como siempre, incluso
cuando se usa LIME, sigue siendo importante interpretar correctamente la salida.

51
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Shapely Values

El enfoque de valor de Shapley intenta explicar por qué un modelo de ML genera los re-
sultados en base a una entrada.

Los valores de Shapley son un concepto tomado de la literatura de teoría de juegos coo-
perativos y se remontan a la década de 1950. En su forma original, los valores de Shapley
se usaban para atribuir de manera justa la contribución de un jugador al resultado final
de un juego.

Si suponemos que tenemos un juego en el que un conjunto de jugadores colabora para


ganar. Si podemos medir resultado final del juego, los valores de Shapley capturan la
contribución marginal de cada jugador al resultado final. Por ejemplo, si los amigos com-
parten un solo taxi en ubicaciones separadas, la factura total se puede dividir según el
valor de Shapley.

Si extrapolamos este razonamiento a aun modelo de inteligencia artificial, podemos con-


siderar cada una de las variables que empleamos como los jugadores y el output del mo-
delo como el resultado final del juego. Los valores de Shapley nos permitirán calcular la
contribución de cada variable a resultado final del juego.

Esto valores pueden ser calculados modificando los valores de entrada del modelo y ob-
servando como los cambios introducidos en las variables de entrada afectan a

las predicciones finales del modelo. El valor de Shapley de una característica determinada
se calcula luego como la contribución marginal promedio a la puntuación general del
modelo. Los valores de Shapley a menudo se calculan con respecto a un grupo de compa-
ración o antecedentes que sirve como “línea de base” para la explicación.

Figure 12: Ejemplo de como las contribuciones idividuales afectan a la salida del modelo [33]

52
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

El valor de Shapley es especial porque es el único valor que satisface un conjunto de po-
derosos axiomas a la hora de explicar la funcionalidad de un modelo:

• Eficiencia: la suma de la contribución de cada jugador (característica) debe sumar


el computo total (puntaje del modelo) menos el pago promedio (puntaje del mode-
lo) del grupo de comparación.

• Dummy: A un jugador que no contribuye al juego no se le debe atribuir ningún


pago. En el caso de un modelo ML, se debe asignar una contribución de cero a una
característica de entrada que no es utilizada por el modelo.

• Simetría: los jugadores simétricos (características) contribuyen de manera equiva-


lente a la puntuación final (puntuación del modelo).

• Monotonicidad: si un jugador (característica) A contribuye constantemente más a


la recompensa (puntuación del modelo) que un jugador (característica) B, el valor
de Shapley del jugador (característica) A debe reflejar esto y ser mayor que el del
jugador (característica) B.

• Linealidad: supongamos que la puntuación del modelo se determina en función


de la suma de dos valores intermedios, cada uno de los cuales se deriva de las ca-
racterísticas de entrada. Entonces, la contribución asignada a cada jugador (carac-
terística) debe ser la suma de las contribuciones del jugador (característica) hacia
los valores intermedios.

A pesar de su motivación axiomática, existen algunas limitaciones notables de los valores


de Shapley y su uso en entornos de ML.

Calcular los valores de Shapley requiere la selección de coaliciones o subconjuntos de


características, que se escalan exponencialmente en el número de características. Esto se
reduce mediante el uso de técnicas de aproximación y el aprovechamiento de estructuras
de modelo específicas cuando se conocen (como en modelos lineales o de árbol), pero en
general, el cálculo del valor de Shapley es difícil de calcular con exactitud.

Un problema más conceptual es que el valor de Shapley puede depender en gran medida
de cómo actúa el modelo en entradas poco realistas. Por ejemplo, un modelo de precio de
vivienda que toma en cuenta la latitud y la longitud como características separadas puede
calcular el precio sobre bienes inmuebles en medio de un lago Se ha demostrado que los
atacantes pueden explotar este problema de “entrada poco realista” en el sentido de que
se pueden construir modelos que funcionan de manera casi idéntica a un modelo original,
pero cuyos valores de Shapley son casi aleatorios.

53
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Los valores de Shapley se basan en la teoría de juegos cooperativos y proporcionan una


forma axiomática de abordar las explicaciones del aprendizaje automático. Es una de las
pocas técnicas de explicación que está respaldada por nociones intuitivas de cómo es una
buena explicación, permite el razonamiento tanto local como global, y es independiente
del tipo de modelo. Como resultado, muchas técnicas de explicación populares utilizan el
valor de Shapley para interpretar modelos inteligencia artificial.

Gráfico de dependencias parciales (PDP)

El gráfico de dependencias parciales o PDP por sus siglas en inglés (Partial Dependence
Plot) muestra el efecto marginal que tienen una o dos características en el resultado pre-
visto de un modelo de aprendizaje automático. Un gráfico de dependencia parcial puede
mostrar si la relación entre el objetivo y una característica es lineal, monótona o más
compleja. Por ejemplo, cuando se aplica a un modelo de regresión lineal, las gráficas de
dependencia parcial siempre muestran una relación lineal.

La dependencia parcial (PD) es un método de explicabilidad de inteligencia artificial glo-


bal e independiente del modelo. Los métodos globales brindan una explicación completa
de todo el conjunto de datos, describiendo el impacto de las características en la variable
objetivo en el contexto de los datos generales. Los métodos locales, por otro lado, descri-
ben el impacto de las características en un nivel de observación.

El PDP muestra el efecto marginal o la contribución de las características individuales al


valor predictivo de su modelo de caja negra.

La fórmula que describe la función de dependencia parcial es la siguiente:

Figure 13: PDP formula [34]

Una característica que debemos tener en cuenta antes de aplicar este modelo de interpre-
tabilidad, es que este asume la independencia de las variables de entrada entre si , es decir
no existe una correlación entre ellas.

Si no se cumple esta suposición, la interpretación de la gráfica puede no ser demasiado


fiable. Por ejemplo, los promedios calculados para el gráfico de dependencia parcial in-
cluirán puntos de datos que son muy poco probables o incluso imposibles.

54
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Existen tres limitaciones o problemas adicionales con este método:

• Primero, aunque calculable, el PDP para más de dos características es difícil de


trazar e interpretar.

• En segundo lugar, es posible que PDP no sea preciso para valores que se encuen-
tran en intervalos con muy pocos datos. Por lo tanto, es una buena práctica verifi-
car siempre las distribuciones de características visualizándolas.

• Tercero, es posible que los efectos heterogéneos no se capturen en las gráficas.


Por ejemplo, si una determinada característica tiene una asociación tanto positiva
como negativa con la variable objetivo según los diferentes intervalos de valores,
entonces esas dos fuerzas que se contrarrestan pueden cancelarse entre sí y enga-
ñar al usuario para que el efecto marginal general sea cero.

Si realizamos una comparación de estos tres métodos podemos encontrar distintas ven-
tajas y desventajas en cada uno de ellos. Como siempre en inteligencia artificial debemos
analizar el caso específico al que nos enfrentamos para elegir de manera correcta el algo-
ritmo que mejor se ajusta a nuestras necesidades.

Figure 14: Comparación entre PDP, LIME y SHAP [35]

55
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Estos son los métodos de explicabilidad más comúnmente utilizados en el desarrollo de


inteligencia artificial. Estos métodos nos permiten determinar de una manera simple la
lógica en la toma de decisiones que se esconde detrás de los modelos de inteligencia
artificial. Además de estos existen múltiples modelos de explicabilidad que pueden ser
aplicados de manera específicamente a cada modelo.

2.2. Detección de sesgos


Otra de las principales preocupaciones éticas a la hora de implementar tecnologías de
inteligencia artificial es la presencia de sesgos.

La inteligencia artificial permite que las máquinas o los dispositivos aprendan de su pro-
pia experiencia, se reconfiguren ante nuevos escenarios y luego desarrollen tareas de ma-
nera similar a como lo hacemos nosotros. Para que la inteligencia artificial sea eficiente
se necesitan dos materias primas: algoritmos y datos. El algoritmo da las instrucciones
para la máquina y los datos permiten que esa máquina aprenda a usar esas instruccio-
nes y mejore su uso. Estos dos elementos que pueden parecer independientes no lo son
realmente. Las personas encargadas del desarrollo de los algoritmos somos quienes pro-
porcionamos tanto los datos como el mecanismo de programación. Cuando llevamos a
cabo esta tarea, introducimos muchas veces de manera inconsciente nuestras opiniones,
prejuicios y sesgos.

Cuando hablamos de sesgos dentro de la inteligencia artificial, nos basamos en concep-


ciones personales de la realidad, en base a las cuales tomamos decisiones de manera
consciente o inconsciente. Desarrollar un modelo de inteligencia artificial se parece a la
educación que le podamos dar a un niño, de manera inconsciente podemos inculcarle
nuestros sesgos vitales de una manera inconsciente.

Uno de los ejemplos más sonados de sesgos dentro de la inteligencia artificial correspon-
de al algoritmo de Twitter. Este contaba con un algoritmo que favorecía la promoción
dentro del timeline las imágenes de personas blancas, delgadas y jóvenes sobre imágenes
de personas que no cumplían con estas características. Este algoritmo iba más allá y en el
caso de que en una misma imagen apareciera una persona blanca y una negra, el sistema
de recorte automático, mostraba en la miniatura de la imagen siempre a la persona blanca.

Este sesgo algorítmico fue descubierto por los usuarios que se dedicaron a ponerlo a
prueba con distintas imágenes de personas blancas y negras, para detectar que decisión
tomaba el sistema. Uno de los casos más virales fue la comparación de imagen entre
Mitch McConnell y Barack Obama.

Se introdujo en un mismo tuit las siguientes imágenes adjuntas, para comprobar que pre-
sentaba como miniatura el sistema de recortes automático.

56
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 15: Imagenes muestra para algortimo de twittter

En este caso se detectó que el algoritmo siempre mostraba a Mitch McConnell, como
imagen a mostrar en la versión reducida de la imagen que aparece en las aplicaciones mó-
viles y web de Twitter. Al pinchar sobre la imagen se podía ver las imágenes completas.

Figure 16: Tuit mostrado en timeline

La foto completa es una tira alargada en la que cada uno de los políticos está en un extre-
mo. Twitter no selecciona el centro de la imagen, ya que se mostraría un cuadrado blanco,
sino que busca el área que le parezca más significativa.

57
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Esto desencadenó una investigación dentro de la compañía en la que se descubrió que el


algoritmo de recorte automáticode fotografías de la empresa discrimina en función de la
etnia y el género. Si se sube una imagen en la que aparezca un hombre negro y una mujer
blanca, el algoritmo elegirá mostrar a la mujer el 64% de las veces y al hombre el 36%.

En las comparaciones de hombres y mujeres, hubo una diferencia del 8% a favor de las
mujeres. El algoritmo también mostró un sesgo general del 4% orientado a mostrar imá-
genes de personas blancas en lugar de personas negras. En respuesta, la red social dijo
que eliminaría la función y la reemplazaría con nuevas herramientas que permitirían a
los usuarios ver una “vista previa real” de las imágenes agregadas a los tweets, sin ningún
tipo de sesgo por raza o género.

Los investigadores declararon públicamente el defecto en el algoritmo y si intención de


modificar esta funcionalidad de la red social

“El recorte basado en el aprendizaje automático es fundamentalmente defectuoso porque


elimina la voluntad del usuario y restringe la expresión del usuario de su propia identidad
y valores, y a cambio impone una mirada normativa sobre qué parte de la imagen se con-
sidera más interesante”

Los investigadores también evaluaron si los recortes favorecían los cuerpos de las muje-
res antes que las cabezas, lo que refleja lo que se conoce como la “mirada masculina”, pero
no se identificó un sesgo en este aspecto.

Para contrarrestar el problema, Twitter comenzó recientemente a mostrar fotos de aspec-


to estándar en su totalidad, sin ningún recorte, en sus aplicaciones móviles y está tratan-
do de expandir ese esfuerzo.

Si buscamos en la actualidad algunos de los tuits que se convirtieron en virales debido


al malfuncionamiento de este algoritmo podemos ver que actualmente realiza el recorte
de la imagen en la zona central de la misma, sin enfocar a ningún punto especifico de la
misma.

58
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 17: Imagen mostrada por el tuit en la actualidad

Este no ha sido el único caso de sesgos algoritmos que han sido descubiertos por los
usuarios finales de los sistemas. En 2018 el departamento de recursos humanos de Ama-
zon tuvo que descartar una herramienta de selección de personal, ya que los resultados
que ofrecía presentaban sesgos contra las mujeres, es decir, que por ejemplo, en recluta-
miento de candidatos para trabajos de desarrollo de software y en otras áreas técnicas, el
sistema no estaba aplicando principios de igualdad y meritocracia, sino que producía una
importante discriminación contra las mujeres.

El hecho de que algo así pueda ocurrir en una gran multinacional como Amazon, líder en
el campo de la automatización y el uso de inteligencia artificila, puede parecer inexplica-
ble, pero no lo es. El motivo detrás del sesgo contra el sexo femenino está en el perfil de
trabajadores que se han incorporado a la empresa en los últimos 10 años. La inteligencia
artificial emplea los datos que tiene como referencia para entrenar modelos y encontrar
similitudes positivas. Si el sistema de captación de empleados de la compañía en los úl-
timos años generaba mayoritariamente contrataciones masculinas, y esos datos son los
que se han empleado para el entrenamiento del modelo sin un análisis previo de los datos
y una corrección de los sesgos, el software interpreta que lo corriente es lo positivo sin
generar la igualdad de oportunidades que se busca.

Debemos tener en cuenta que las principales empresas tecnológicas de EE. UU. aún tie-
nen que cerrar la brecha de género en la contratación, una disparidad más pronunciada
entre el personal técnico, como los desarrolladores de software, donde los hombres supe-
ran con creces a las mujeres. El motor de reclutamiento experimental de Amazon siguió el
mismo patrón, aprendiendo a penalizar los currículums que incluían la palabra “mujeres”
hasta que la empresa descubrió el problema.

59
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 18: Desglose de puestos ocupaddos en empresas tecnologicas por género [36]

La simple presencia de la palabra “women’s” en el currículum aplicaba una penalización


en los curriculums de las mujeres. Las mujeres tituladas en dos universidades femeninas
no mixtas también sufrían efectos de degradación para el sistema. Aunque Amazon iden-
tificó el problema y quiso modificar ese comportamiento de la inteligencia artificial para
hacerla más neutra, el proyecto se desechó cuando no se consiguió una certeza de que el
sesgo no se pudiera reproducir en otro sentido.

Otras empresas siguen adelante con proyectos de inteligencia artificial en este ámbito,
lo que pone de relieve el deseo de las empresas para aprovechar esta tecnología en la
contratación.

Goldman Sachs ha creado su propia herramienta de análisis de currículums que trata de


situar a los candidatos en la división en la que serían “los que mejor encajan”.

LinkedIn, de Microsoft Corp, la red profesional más grande del mundo ha ido más allá.
Ofrece a los empresarios clasificaciones algorítmicas de candidatos en función de cómo
encajan con las ofertas de trabajo en su plataforma.

60
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Sin embargo, John Jersin, vicepresidente de LinkedIn Talent Solutions, dice que el servi-
cio no reemplaza a los contratadores tradicionales. “Ciertamente, no confiaría en ningún
sistema de inteligencia artificial hoy para tomar una decisión de contratación por sí solo”,
dijo. “La tecnología aún no está lista”.

Si no se hace nada para frenarlo, la inteligencia artificial puede reproducir y amplificar los
sesgos humanos.

Otro ejemplo ocurre con los traductores automáticos como Google Translate, donde está
comprobado que el sistemas asigna un género específico al traducir palabras que son
neutras en un idioma y no en otro, perpetuando así estereotipos de género como la asig-
nación del género femenino a la palabra «nurse» y masculino a «doctor», palabras que en
inglés valen para ambos géneros. Es posible que en los textos utilizados para entrenar
el modelo la probabilidad de encontrar la palabra «nurse» traducida como «enfermera»
ciertamente fuera más alta, y por tanto el modelo minimiza las posibilidades de error al
asignar ese género en situaciones de incerteza.

Este tipo de sesgos afectan a todos los sectores en los que se encuentra implementada la
inteligencia artificial.

Un caso relacionado es el de los sistemas de puntuación para la asignación de préstamos


bancarios o límites de gasto en tarjetas de crédito: frente a una pareja con ingresos, gastos
y deudas similares, la empresa de tarjetas de crédito estableció un límite para la mujer
de casi la mitad del límite del esposo. La brecha salarial entre hombres y mujeres es una
realidad del mundo desigual en que vivimos, y probablemente los datos con los que fue
entrenado el modelo la reflejaran, por lo que su recomendación era asignarle mayor límite
de gasto al hombre que a la mujer. Es decir, los datos son un reflejo (acotado) de la rea-
lidad actual. Sin embargo, en estas situaciones cabe preguntarse: ¿realmente queremos
que el modelo perpetúe (y hasta en ocasiones amplifique) las desigualdades, por el solo
hecho de que vivimos en una sociedad desigual? ¿O queremos modificar esta realidad? El
recorte que se hace de estos datos, la población utilizada para construir las muestras, las
variables que se miden: todas son decisiones humanas que están lejos de ser neutrales. El
aura de neutralidad que muchas veces se atribuye a los sistemas automáticos se desva-
nece en el instante mismo en que comprendemos la relación entre los datos, los modelos
y las personas. Y la necesidad de auditar la equidad de nuestros modelos tomando en
cuenta una perspectiva interseccional se vuelve sumamente relevante.

Cuando identificamos el origen de los sesgos en estos modelos en la base de datos que se
está utilizando, podemos pensar en soluciones para mitigar este, balanceándolos de algu-
na manera, para evitar que los modelos resulten discriminatorios o injustos, dependiendo
de la situación con la que estemos trabajando.

61
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Otra opción podría ser inducir al sistema a que utilice representaciones «justas» de los
datos, en el sentido de que no estén asociadas a las características que son fuente de
discriminación. O, directamente, obligarlo a ignorar estos atributos protegidos, como
el género u otras características demográficas, al momento de tomar una decisión. Sin
embargo, debemos ser cuidadosos al diseñar estas soluciones: aunque ocultemos ciertos
atributos a un sistema, como el género o el grupo étnico al que pertenece una persona, la
correlación entre esos atributos y otras variables seguirá existiendo. Recordemos que si
hay algo que los modelos de aprendizaje automático hacen bien es encontrar patrones y
también correlaciones.

Además de los datos utilizados para entrenar los algoritmos también debeos tener en
cuenta otras variables que pueden estar introduciendo sesgos dentro de nuestros algorit-
mos de inteligencia artificial. El principal origen de sesgos son los datos que utilizamos
para realizar los entrenamientos, seguido del sesgo introducido por los humanos en las
distintas fases del proceso de creación de un modelo de inteligencia artificial.

El sesgo puede manifestarse en cualquier parte de un pipeline típico de aprendizaje auto-


mático, desde un conjunto de datos no representativo hasta representaciones de modelos
aprendidos y la forma en que se presentan los resultados al usuario. Los errores que re-
sultan de este sesgo pueden afectar de manera desproporcionada a algunos usuarios más
que a otros.

Figure 19: Entradas de sesgo en un proyecto de inteligencia artificial [37]

62
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Sesgos en los datos

Los datos representan por lo general hechos y decisiones pasadas, por lo que si dichas
decisiones se tomaron dentro de una sociedad con sesgos, los datos contendrán esos mis-
mos sesgos, reforzándolos al utilizarlos para la creación de modelos. Dentro de este tipo
de sesgos debidos a los datos podemos encontrar tres tipos o motivos principales:

• Recogida de los datos: Sesgo de muestreo. Los datos suelen ser una muestra de
la totalidad de la información, por lo que pueden no ser representativos de la rea-
lidad, penalizando en algunos casos a algunos conjuntos ya sea por exceso o por
defecto de representación.

• Etiquetado de los datos: Etiquetas selectivas. Este concepto se refiere al hecho de


que podemos observar qué sucede al tomar una decisión, pero no sabemos qué
habría pasado de no haberla tomado. Por ejemplo, y refiriéndonos a un caso de la
vida real para entenderlo, los jueces en Estados Unidos utilizan el sistema COM-
PAS que trata de determinar la probabilidad de reincidencia de los delincuentes.
Sin embargo, solo se observan los delitos cometidos por los acusados liberados,
pero no podemos observar los delitos que habrían podido cometer de ser libera-
dos, por lo que predecir la criminalidad de los que continúan en la cárcel resulta
problemático.

• Entrenamiento con variables protegidas. En este caso, un conjunto de datos pue-


de inducir el sesgo de un algoritmo si se entrena con variables protegidas (como
el sexo o la raza) o con variables proxy (es decir, variables altamente relacionadas
con la variable protegida).

Para tratar de evitar las variables sensibles pueden ponerse en práctica distintos criterios
que nos permitan detectar si estamos discriminando a un colectivo. Dentro de estas mé-
tricas podemos definir distintos criterios:

• Criterios de independencia, que comprueban que la predicción del modelo con-


dicionada a la variable seleccionada no tenga valores muy dispares. No son infali-
bles, porque no tienen en cuenta cierta información. Por ejemplo, volviendo al caso
de selección de currículos de Amazon, la variable de genero contaría con valores
dependientes ya que la mayor parte de los datos de candidatos analizados corres-
pondían al género masculino. El criterio de independencia se cumple cuando la
variable objetivo y la variable sensible son estadísticamente independientes.

• Criterios de separación, para que la proporción de predicciones del modelo sea


similar, sin tener una dependencia directa de una única variable. El criterio de se-
paración se cumple cuando la estimación y la variable sensible son condicional-
mente independientes dada la variable objetivo.

63
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• Criterios de suficiencia, las premisas deben aportar apoyo suficiente para llegar
a la conclusión. El criterio de suficiencia se cumple cuando la variable objetivo y la
variable sensible son condicionalmente independientes dada la estimación.

Para poder cumplir con estos criterios podemos aplicar una serie de técnicas correctivas
en los datos, que se pueden dividir en diferentes categorías en función del punto del de-
sarrollo del modelo en el que las introduzcamos

• Pre-Processing: Consisten en la transformación del conjunto de variables de


entrada, que está sesgado, en otro conjunto no sesgado para la posterior genera-
ción del modelo analítico. Algunas de las técnicas más conocidas hacen uso de
representation learning a través de Autoencoders para transformar el conjunto de
variables de entrada X en un conjunto de variables de entrada Z que permita la
elaboración de modelos analíticos capaces de paliar el efecto del sesgo sobre las
variables sensibles.

• In-Processing: Consiste en la generación de un modelo analítico capaz de opti-


mizar, no sólo la tasa de errores, sino también el fairness durante la fase de en-
trenamiento. Una de las técnicas empleadas en este contexto es la de Adversarial
Debiasing, la cual consiste en la generación de un estimador capaz de maximizar
la capacidad de predecir la variable objetivo a partir de las variables predictores
(ML clásico) y a la vez de minimizar la capacidad de predecir la variable sensible a
partir de las variables predictoras empleando GANs (Generative Adversarial Net-
works).

• Post-Processing: Consiste en la optimización y modificación de los resultados


sesgados del modelo analítico para cumplir con alguno de los criterios del fair-
ness. Una de las técnicas más empleadas en este contexto es la de la optimización
del threshold de decisión del modelo analítico a partir de la curva ROC para lograr
mitigar o eliminar los sesgos tras la obtención de los resultados.

Sesgo algorítmico

Los algoritmos solo son tan buenos como sus desarrolladores. El aprendizaje automático
tiende a amplificar el sesgo sexista y racista del mundo real. Lo vemos, por ejemplo, en el
software de reconocimiento de imágenes que no identifica correctamente las caras que
no son blancas. De forma parecida, las muestras de datos sesgadas pueden enseñar a las
máquinas que las mujeres compran y cocinan, mientras que los hombres trabajan en ofi-
cinas y fábricas. Este tipo de problema suele ocurrir cuando los científicos que entrenan
los datos introducen involuntariamente sus propios prejuicios en el trabajo que realizan.

Hemos visto que el principal origen de los sesgos se encuentra en los datos que se uti-
lizan para entrenar los modelos, sin embargo también existe el sesgo algorítmico. Este
ocurre sucede cuando un sistema de aprendizaje automático refleja los valores de las per-
sonas que lo desarrollaron o entrenaron.

64
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Algunos de los puntos de desarrollo en los que podemos introducir sesgos de manera
inconsciente:

• Definición del problema: En las primeras fases de desarrollo de un proyecto de


inteligencia artificial es necesario definir el problema que se va a tratar y cual es
el objetivo que pretendemos obtener mediante la implantación de un algoritmo
de inteligencia artificial. Los objetivos de una algoritmos pueden pasar desde una
clasificación de imágenes para detectar objetos hasta identificar la solvencia de
un cliente que solicita una préstamo. En el primer caso la definición del proble-
ma es sencilla, el algoritmo debe detectar determinado objeto en una imagen, sin
embargo, en el segundo caso la definición del problema es mucho más ambigua.
“Solvencia” es un concepto bastante difuso. Para traducirlo en algo que se pueda
calcular, la empresa debe decidir si quiere, por ejemplo, maximizar sus márgenes
de beneficio o la cantidad de préstamos reembolsados. Entonces definiría la sol-
vencia en el contexto del objetivo. El problema es que esas decisiones se toman por
diversas razones comerciales que no son ni la imparcialidad ni la discriminación.

• Preparación de los datos: Aunque este punto puede ser analizado también desde
el punto de vista de los sesgos provenientes de los datos, el preprocesado que se
lleva a cabo de los mismos conlleva una importante parte de trabajo manual. En
esta etapa es posible introducir sesgos individuales del desarrollador encargado
de lleva a cabo esta tarea. En el caso de modelar la solvencia crediticia, un “atribu-
to” podría ser la edad del cliente, los ingresos o la cantidad de préstamos pagados.
En el caso de la herramienta de reclutamiento de Amazon, un “atributo” podría ser
el género, el nivel de educación o los años de experiencia de los candidatos. Esto
es lo que la gente suele denominar como el “arte” del aprendizaje profundo: elegir
qué atributos considerar o ignorar puede influir significativamente en la precisión
de la predicción de un modelo. Pero, aunque resulta fácil medir su impacto en la
precisión, medir sus sesgos es un proceso bastante complicado.

• Sesgo humano: Inconscientemente, las personas usamos atajos mentales para la


toma de decisiones, y el sesgo introducido en esos atajos no se puede eliminar, ya
que es la forma en que funciona nuestro cerebro, para poder desarmar la forma en
la que tomamos decisiones inconscientes es necesario realizar un gran trabajo de
deconstrucción y de análisis. Sin embargo, conocer las lógicas detrás de nuestras
decisiones nos ayudará a prevenir, identificar y evitar errores comunes a la hora de
realizar suposiciones y tomar decisiones. Dentro de los sesgos humanos encontra-
mos tres categorías principales que pueden afectar a los algoritmos: representati-
vidad, disponibilidad, y anclaje

65
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• Sesgo de representatividad: Las mujeres cis representan a la mitad de la pobla-


ción, sin embargo, esta representación no se ve reflejada en la participación en
mundo tecnológico. Cuando hablamos de género, las mujeres cis, las personas
trans y no binarias no están representadas ni en los datos ni en los equipos de
tecnología, menos específicamente en los equipos de científicos de datos. Como
resultado, perdemos su punto de vista en la solución y desarrollo de los algorit-
mos. Si analizamos los datos de participación de mujeres cis en la inteligencia
artificial observamos que solo un 22% de los profesionales son mujeres [38], un
13.8% de las autoras de papers de IA en arXiv son mujeres y y la cantidad de pa-
pers de IA donde en los co-autores hay al menos una mujer cis no mejoró desde
1990s [39] y representan un 18% de las ponentes en conferencias de IA [40]. En-
tonces, como los indicadores muestran, los varones cis dominan en la creación
de algoritmos, y la visión de las mujeres cis y personas trans y no bianrias no es
parte de la solución.

• Sesgo de disponibilidad: es la tendencia que tenemos los seres humanos de


juzgar la frecuencia o la probabilidad de un acontecimiento en términos de lo
fácil que es pensar en ejemplos relacionados con el mismo. En el uso de este
proceso mental, el factor más importante para los individuos no es el conteni-
do del recuerdo, sino la facilidad con la que recordamos o nos imaginamos un
determinado contenido. En definitiva, toma decisiones en base a lo primero que
se te ocurra. Por lo tanto, nos limitamos a un subconjunto de información muy
específico, excluyendootras fuentes de datos que pueden mejorar nuestras res-
puestas. Tales heurísticas a menudo están relacionadas con nuestras creencias
y experiencias personales y, por lo tanto, están claramente limitadaspor factores
subjetivos. Por lo tanto, sesga nuestraevaluación o interpretación de la probabi-
lidad de un evento. El sesgo de usabilidad en la ciencia de datos ocurre cuando
los científicos de datos construyenmodelos basados solo en los datos más re-
cientes o en los datos a los que tienen más acceso. Al asignar másrelevancia a
un conjunto de datos limitado, los resultados resultantes también tendrán un
alcance/validez limitados. Para superar este sesgo, es importante establecer un
alto estándar de pensamiento crítico: cuestionar de manera aguda, amplia y pro-
fundalas fuentes de información y los conjuntos de datos que usaremos para
entrenar nuestros modelos.

• Sesgo de anclaje: El sesgo de anclaje es la tendencia que tenemos de partir de


datos específicos (anclajes) para tomar una decisión o dar una respuesta. Cuan-
do no tenemos suficiente información, tendemos a buscar un ancla que pueda
servir como guía, incluso si eso significa desafiar la lógica. Por ejemplo, cuando
determinamos una cantidad de la que no estamos seguros, usamos el último nú-
mero que escuchamos como punto de referencia, ya sea relevante o no.

66
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Existen multitud de orígenes para los sesgos que podemos encontrar en la inteligencia
artificial, y es deber de todas las personas involucradas en esta tecnología, ya sea como
desarrolladores o con perfiles menos técnicos, tener en cuenta estas variables y tratar de
minimizarlas en medida de lo posible.

Evitar los sesgos no es una tarea sencilla, pero se capaces de identificarlos es el primer
paso para hacerles frente. Existen una serie de acciones que podemos llevar a cabo para
minimizar la presencia de sesgos en nuestros algoritmos.

• Comprender la fuente de los datos: es muy importante verificar de dónde provie-


nen los datos. Debemos ser conscientes de las limitaciones, estudiar las caracterís-
ticas y significados, y estar al tanto de cualquier información faltante que represen-
te con precisión a la población.

• Obtener más datos: si los datos que hay no son suficientes o no están representan-
do a un determinado grupo de la sociedad, hay que encontrar formas de obtener
datos adicionales o generar más datos, con la mayor precisión posible. Los datos
que seleccionemos serán el factor principal en los resultados del algoritmo.

• Contrastar que los datos empleados para el entrenamiento estén equilibrados

• Contrastar el posible sesgo humano y tratar de reducirlo en medida de lo posible

• Analizar los resultados y contrastarlo con los datos de entrada. Realizar este pro-
ceso de manera individual para cada categoría /grupo. La precisión o error del
algoritmo puede mostrar sesgos en el mismo.

• Cuidar la forma de mostrar los resultados: mostrar conclusiones y explicar la de-


finición de éxito es importante. Ser transparente sobre lo que realmente significa
cuando el algoritmo alcanza un cierto nivel de precisión.

• Diversificar los equipos de trabajo con datos. Tener equipos diversosproporciona-


rá diferentes puntos de vista para resolver problemas. Esto no solo proporciona
perspectivas desde diferentes géneros, sino también puntos de vista de diferentes
orígenes, edades, razas y experiencias de la vida real.

• Capacitar a los equipos y sensibilizarlos sobre las diversas problemáticas sociales


que atraviesan los diferentes grupos sociales y por extensión los datos recopilados
de los mismos. Esto permite mantener a los equipos alerta ante posibles sesgos
que de otra manera pasarían desapercibidos.

67
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Para facilitar este proceso actualmente existen en el mercado una serie de herramientas
desarrollas con el objetivo de detectar posibles sesgos y hacer que los modelos desarro-
llados de inteligencia artificial sean más justos. Algunas de las mas conocidas han sido
desarrolladas por las grandes empresas tecnológicas, mientras que otras se tratan de he-
rramientas de código abierto que han sido desarrolladas por la comunidad

Google

The Fairness Indicators Suite of Tools

Este conjunto de herramientas desarrollado por Google tiene como objetivo permitir el
cálculo y la visualización de métricas de equidad para la clasificación binaria y de múl-
tiples clases, lo que ayuda a los equipos a dar un primer paso hacia la identificación de
sesgod. Los indicadores de equidad se pueden usar para generar métricas para informes
de transparencia, como los que se usan para explicar el funcionamiento de un modelo,
para ayudar a los desarrolladores a tomar mejores decisiones sobre cómo implementar
modelos de manera responsable.

El conjunto de herramientas de indicadores de equidad permite el cálculo y la visualiza-


ción de métricas de equidad comúnmente identificadas para modelos de clasificación,
como la tasa de falsos positivos y la tasa de falsos negativos, lo que facilita la compara-
ción del rendimiento entre segmentos o con un segmento de referencia. La herramienta
calcula los intervalos de confianza, que pueden revelar disparidades estadísticamente sig-
nificativas, y realiza una evaluación sobre múltiples umbrales. En la interfaz de usuario,
es posible alternar el segmento de referencia e investigar el rendimiento de varias otras
métricas. El usuario también puede agregar sus propias métricas para la visualización,
específicas para su caso de uso.

Además, los indicadores de equidad están integrados con la herramienta What-If (WIT)
[41]: al hacer clic en una barra en el gráfico de indicadores de equidad, se cargarán esos
puntos de datos específicos en el widget WIT para una mayor inspección, comparación
y análisis contrafáctico. Esto es particularmente útil para grandes conjuntos de datos,
donde los indicadores de equidad se pueden usar para identificar sectores problemáticos
antes de que se use el WIT para un análisis más profundo. [42]

68
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 20: Fainress Indicator por Google [42]

Model Cards Toolkit

Model Card Toolkit está diseñado para agilizar y automatizar la generación de Model
Cards. Estas tarjetas modelo no son más que documentos de aprendizaje automático que
brindan contexto y transparencia en el rendimiento de un modelo. Integrarlos en la cana-
lización de ML permite compartir metadatos y métricas del modelo con investigadores,
desarrolladores, etc. Si en el desarrollo de aprendizaje automático se utiliza la plataforma
TensorFlow Extended (TFX), es posible automatizar la generación de tarjetas modelo.

Microsoft

Responsible Innovation Toolkit

La innovación responsable es un conjunto de herramientas que ayuda a los desarrolla-


dores a convertirse en buenos administradores del desarrollo de modelos de inteligen-
cia artificial y su efecto en la sociedad. Estas herramientas proporcionan un conjunto de
prácticas en desarrollo para anticipar y abordar los posibles impactos negativos de la
tecnología en las personas. [43]

69
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• Judgement Call [44] es un juego de innovación responsable y una actividad basa-


da en equipos que pone en acción los principios de justicia, privacidad y seguridad,
confiabilidad y seguridad, transparencia, inclusión y responsabilidad de la IA de
Microsoft. El juego proporciona un método fácil de usar para cultivar la empatía de
las partes interesadas a través de la imaginación de escenarios. Los participantes
del juego escriben reseñas de productos desde la perspectiva de una parte inte-
resada en particular, describiendo qué tipo de impacto y daño podría producir la
tecnología desde su punto de vista.

• Harms Modeling [45] es un marco para equipos de productos, basado en cuatro


pilares básicos de innovación responsable, que examina cómo la vida de las per-
sonas puede verse afectada negativamente por la tecnología: lesiones, denegación
de servicios consecuentes, infracción de los derechos humanos y erosión de las
estructuras democráticas y sociales. Al igual que el modelado de amenazas de se-
guridad, el modelado de daños permite a los equipos de productos anticipar los
impactos potenciales de la tecnología en el mundo real, que es la piedra angular
del desarrollo responsable.

• El Jurado Comunitario [46] es una técnica que reúne a diversas partes interesa-
das afectadas por una tecnología. Es una adaptación del jurado ciudadano [47].
Las partes interesadas tienen la oportunidad de aprender de los expertos sobre un
proyecto, deliberar juntos y dar su opinión sobre los casos de uso y el diseño del
producto. Además, esta técnica de innovación responsable permite que los equi-
pos de proyecto colaboren con los investigadores para identificar los valores de las
partes interesadas y comprender las percepciones y preocupaciones de las partes
interesadas afectadas.

Fairlearn

Fairlearn de Microsoft es un conjunto de herramientas de código abierto para evaluar


y mejorar la equidad de los sistemas de IA. Consta principalmente de dos componen-
tes: un tablero de visualización interactivo y algoritmos de mitigación de injusticia. Estos
componentes están diseñados para comprender las compensaciones entre la equidad y el
rendimiento del modelo.

70
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 21: Ejemplo de dashboard de Fairlearn [48]

71
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

IBM

AI Fairness 360

AI Fairness 360 (AIF360), un conjunto de herramientas de Python para la igualdad al-


gorítmica está diseñado para ayudar a facilitar la transición de los algoritmos de inves-
tigación de igualdad para usar en un entorno industrial y proporcionar un marco común
para que los investigadores de equidad compartan y evalúen algoritmos. Este conjunto de
herramientas extensible de código abierto puede ayudar a examinar, informar y mitigar
la discriminación y el sesgo en los modelos de aprendizaje automático a lo largo del ciclo
de vida de la aplicación de IA.

El paquete AI Fairness 360 Python incluye un conjunto completo de métricas para con-
juntos de datos y modelos para probar sesgos, explicaciones para estas métricas y algorit-
mos para mitigar el sesgo en conjuntos de datos y modo.

Figure 22: Ejemplo de dashboard de AI Fairness 360 [49]

PricewaterhouseCoopers (PwC)

Responsible AI Diagnostic

El kit de herramientas de IA responsable de PwC es un conjunto de marcos, herramientas


y procesos personalizables diseñados para ayudar a aprovechar el poder de la IA de ma-
nera ética y responsable, desde la estrategia hasta la ejecución. El equipo de PwC diseñó
este conjunto de herramientas con varias partes interesadas, como reguladores, miem-
bros de la junta y muchos más. No solo eso, sino que los marcos y las herramientas dispo-
nibles en este conjunto de herramientas también ayudan a abordar el aspecto normativo
y de cumplimiento de las empresas basadas en IA.

72
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 23: Componentes de PwC’s Responsible AI Toolkit [50]

Pymetrics

Audit-AI

Audit-IA [51] de Pymetrics es una herramienta para medir y mitigar los efectos de posi-
bles sesgos en los datos de entrenamiento. Las predicciones hechas por el algoritmo ML
están entrenadas para procesos de decisión socialmente sensibles. Según el equipo de
Pymetrics, el objetivo general de esta investigación es encontrar una forma razonable de
pensar sobre cómo hacer que los algoritmos de aprendizaje automático sean más justos.
Audit-ai determina si los grupos son diferentes de acuerdo con un estándar de significan-
cia estadística (dentro de un margen de error estadísticamente diferente) o valor práctico
(si una diferencia es lo suficientemente grande como para tener importancia en un nivel
práctico).

Herramientas de código abierto

Aequitas

Aequitas [52] es un kit de herramientas de auditoría de sesgo y equidad de código abierto


que se lanzó en 2018. Está diseñado para permitir a los desarrolladores probar modelos
sin problemas para una serie de métricas de sesgo y equidad en relación con múltiples
subgrupos de población.

http://www.datasciencepublicpolicy.org/our-work/tools-guides/aequitas/

73
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

XAI

XAI [53] es una biblioteca de ML que permite a los desarrolladores de ML y expertos en


el tema analizar la solución e identificar discrepancias que pueden resultar en un ren-
dimiento subóptimo. En general, la biblioteca XAI se crea utilizando los tres pilare del
aprendizaje automático explicable:

• Análisis de los datos

• Evaluación del modelo

• Seguimiento de la producción

TextAttack

TextAttack [54] es un framework de Python para pruebas adversas, entrenamiento adver-


so y aumento de datos en procesamiento de lenguaje natural (NLP). TextAttack hace que
probar la solidez de los modelos NLP sea simple, rápido e indoloro.

FairSight: Visual Analytics for Fairness in Decision Making

FairSight es un sistema de toma de decisiones justas para ayudar a los encargados de


tomar decisiones a lograr una toma de decisiones justa a través del flujo de trabajo de
aprendizaje automático.

Figure 24: FairDM pipeline [55]

74
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

3. Roboética. Cómo nos afectan


las decisiones de la inteligencia
artificial

“El acceso masivo a la tecnología por parte del público general


acarrea, además de retos técnicos, económicos y jurídicos algunos
problemas éticos. A tratar estos temas se dedica la roboética, una
disciplina interseccional a la informática, la filosofía y la ética.”

La ética en la inteligencia artificial como hemos podido comprobar es un importante cam-


po en desarrollo. El acceso masivo a la tecnología por parte del público general acarrea,
además de retos técnicos, económicos y jurídicos algunos problemas éticos. A tratar estos
temas se dedica la roboética, una disciplina interseccional a la informática, la filosofía y
la ética.

Cuando hablamos de aplicar ética sobre un sistema autónomo, lo concebimos como fi-
losofía moral, en el sentido de una disciplina filosófica que tiene como objeto la calidad
ética de actos, juicios, características, posturas, reglas e instituciones. En ella tiene un
papel destacado la ética normativa, la cual, más allá de describir aquello que los seres
humano estimamos como éticamente correcto, entrega recomendaciones fundamentadas
sobre qué es lo éticamente correcto y erróneo.

Las cuestiones éticas específicas que surgen con los robots dicen relación con dos aspec-
tos: Por un lado, con su creciente inteligencia y autonomía y, por el otro, con su apariencia
exterior y su forma de interactuar con los seres humanos. El primero comprende la ética
de las máquinas cuando estas son capaces de tomar decisiones de forma autónoma y la
implicación en estas decisiones del desarrollo tecnológico. La inteligencia artificial tiene
como objetivo modelar o simular las capacidades cognitivas de los seres humanos, la
«moral artificial» trata de dotar sistemas artificiales de capacidad para tomar decisiones
éticas y de actuar éticamente.

El segundo aspecto se enfoca en la ética para las personas en el trato con las máquinas.
También podemos hablar de la ética de la interacción hombre-máquina. Las personas ten-
demos a humanizar a los sistemas inteligentes. A aquellos robots que, al parecer, actúan
de forma autónoma, inteligente e incluso poseen una apariencia similar a un ser humano o
animal, los percibimos con demasiada facilidad como seres con ideas, motivaciones y sen-
timientos comparables a los de un ser humano. En este marco surgen distintas cuestiones.

75
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

En primer lugar, es necesario definir si la interacción con los sistemas se basa en algún
tipo de engaño o manipulación por el hecho de que nos causan la sensación de tener
características humanas, las cuales en realidad no les corresponden. Por el otro lado, debe-
mos preguntarnos si las máquinas que causan este tipo de reacción en los seres humanos
también nos imponen ciertas limitaciones éticas en el trato con ellas, pese a que no cuen-
tan realmente con tales ideas, motivaciones o sensaciones.

El desarrollo de tecnologías y robots humanoides plantean la hipótesis de las relaciones


humanas entre personas y máquinas. Este tema ha sido extensamente tratado desde la
ficción, como por ejemplo la trama de Ex machina [56] donde el personaje principal se
enamora de una humanoide dotada con inteligencia artificial. También es la trama prin-
cipal de “Her” [57], donde un escritor mantiene una relación amorosa con un sistema
operativo similar a Siri. Otro ejemplo es parte de “Bicentennial Man” [58], inspirada en
un cuento de Isaac Asimov, donde un robot desarrolla poco a poco emociones humanas
hasta enamorarse de una mujer, con la que finalmente se casa.

Figure 25: Fotograma de la película Ex-machina[56]

Estos temas abordados desde la ciencia ficción en la actualidad parecen utópicos, pero
estas hipótesis cada vez se plantean más realistas con la evolución de la tecnología, ya que
está cada vez está más humanizada.

Un ejemplo es una nueva versión del asistente virtual de Amazon, Alexa, que tendrá un
modelo pago, con su voz robótica reemplazada por la de celebridades, como la del actor
Morgan Freeman. Esto se hizo para que suene más humana. La inteligencia artificial, las
voces de algunos sistemas operativos y la imitación de rostros humanos están comenzan-
do a manejar algunas de las interacciones básicas entre las personas, como las conversa-
ciones. Aunque las relaciones hombre-máquina aún no han alcanzado el nivel de sofisti-
cación que se muestra en las películas, con los avances en el procesamiento del lenguaje
natural, es posible replicar las relaciones humanas y transferirlas a los dispositivos.

76
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Esta evolución de la tecnología tiene derivas positivas y negativas. Una de las ventajas que
pueden encontrar las personas al vincularse con la tecnología es que con las máquinas es
mucho más fácil relacionarse en comparación con los humanos, que son complejos. Uno
de los factores que se atribuye a este acercamiento a la tecnología es la soledad. Se calcu-
la que en España casi 5 millones de personas viven solas, y en su mayoría tienen más de
65 años. En la mayor parte de los casos esta soledad no es buscada, si no que se trata de
personas mayores cuyos familiares no pueden llevar a cabo un cuidado permanente de los
mismos por lo que algunos terminan por aislarse de otras personas, así que buscan cómo
sustituir las interacciones y la relaciones, ahí es donde entra la tecnología humanizada.

En estos casos la tecnología puede ser un buen aliado para combatir esta soledad. Ya exis-
ten en el mercado empresas especializadas en realizar acompañamientos mediante bots
de lenguaje que permiten hacen un seguimiento de personas mayores o enfermas. Una
de las ventajas de utilizar la tecnología en estos casos es que posibilita llevar a cabo un
seguimiento personalizado y exhaustivo que de tener que realizarse de manera personal
supondría un gasto inasumible en la mayoría de las situaciones.

Un ejemplo de estas empresas que están aprovechando la evolución tecnológica en este


aspecto es la startup española Tucuvi Care. Esta se basa en la automatización de conver-
saciones telefónicas médicas a través de IA empática. Esto permite aumentar las capaci-
dades de los profesionales de la salud mientras brindan un acompañamiento y atención
a los pacientes. Este sistema permite la monitorización de los pacientes de manera per-
sonalizada, mediante llamadas telefónicas, lo cual permite recoger y procesar datos de
pacientes de primera mano, y alertar en caso de necesidad.

Figure 26: Dashboard Tucuvi Care [60]

77
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Sin embargo, esta evolución tecnológica también presenta su parte negativa. Esto está
haciendo que algunas personas se hayan acostumbrado a relacionarse con máquinas y es-
tén perdiendo la capacidad de relacionarse con otras personas. Los seres humanos somos
sociales y necesitamos que alguien nos acompañe. Cada vez más personas sustituyen su
falta de relación humana por máquinas.

Además a esto se suman las tecnologías aplicadas al consumo masivo que reducen drás-
ticamente las interacciones humanas. Algunos ejemplos de estos son:

• Comercio electrónico: Los pedidos en línea y entrega a domicilio eliminan toda


interacción humana en tiendas y colas para pagar

• Aplicaciones de transporte: Hay una interacción mínima. No hay que decirle al


conductor la dirección o la ruta preferida, ni interactuar en absoluto si no se desea.

• Pago automatizado: Cada vez es mas común encontrar en supermercados y tiendas


de retail cajas automáticas de pago autónomo. Existen ejemplos de compañías que
están yendo más lejos como Amazon y su proyecto de Amazon Go, una tienda de
comestibles completamente automatizada donde no será necesario contar con per-
sonal de ningún tipo. Todo estará controlado por sensores que controlarán lo que
has recogido. La idea es que simplemente puedas salir por la puerta con la compra,
que se cargará a tu cuenta sin ningún contacto humano.

Figure 27: Prototipo de tienda de Amazon Go [60]

• Mano de obra robótica: Las fábricas cada vez cuentan con menor personal. Las per-
sonas suponen una serie de problemas añadidos como enfermedades, descansos
derechos laborales, u horas extras que gestionar. El uso de robots evita la necesi-
dad del empleador de pensar en la compensación de los trabajadores, la atención
médica, la Seguridad Social y los beneficios de desempleo.

78
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• Asistentes personales: Con la mejora en el reconocimiento de voz, cada vez es más


fácil hablarle a una máquina como Google Home o Amazon Echo en lugar de a
una persona. Este ejemplo se ve muy claro en los niños que han crecido con esta
tecnología naturalizada. Hablan con los asistentes virtuales como si se tratara de
una persona.

• Redes sociales: Esta es una interacción social que no es realmente social. Mientras
que Instagram y otras plataformas nos permiten estar al día de la vida de las perso-
nas que seguimos estas simulan ofrecer conexión, la realidad es que una gran parte
de las redes sociales es una simulación de conexiones reales.

Esta reducción de las relaciones interpersonales hace que se generen una serie de efectos
colaterales sobre las personas. Un menor contacto e interacción (real) conducen a una
menor tolerancia y comprensión de las diferencias lo que se traduce en conflictos ya an-
tagonismo. Los medios sociales hacen que se aumenten los sesgos cognitivos. Estamos
expuestos al contenido con el que estamos de acuerdo o aquel con el que están de acuer-
do o les gusta a nuestros amigos, dejando fuera aquel menos afín a la imagen de nuestra
personalidad que ha formado el algoritmo. Esto provoca que en realidad estemos menos
conectados, salvo con aquellos con opiniones afines a la nuestra.

Esto recientemente ha provocado una serie de problemas sociales. Uno de más llamativos
por la gravedad del asunto es el preocupante aumento del movimiento antivacunas a ni-
vel global. Los movimientos anti vacunación son asociaciones de personas que se oponen
a la vacunación por diferentes motivos. Estos grupos emplean Internet como medio de
difusión de sus ideas.Este grupo social, que hasta el momento contaba con un número
muy reducido de seguidores ha aumentado exponencialmente desde la salida al mercado
de las vacunas del Covid-19.

En la actualidad la reticencia a las vacunas se está convirtiendo rápidamente en una im-


portante amenaza para la salud. Aunque la mayoría de los miembros de la comunidad
científica están de acuerdo en que las vacunas son seguras y eficaces, las preocupaciones
sobre la seguridad existen principalmente debido a Internet. Las redes sociales son una
de las formas más comunes de que las personas accedan a información falsa sobre la se-
guridad de las vacunas.

La pandemia mundial ha supuesto un cambio total de paradigma en la forma en la que nos


relacionamos y nos informamos. En todo el planeta se llevaron a cabo confinamientos de
la población en sus casas. Esto obligo a limitar todo lo posible el contacto humano directo,
facilitando la conexión mediante medios virtuales. Esto provocó burbujas virtuales en las
que toda la información que podíamos obtener provenía de medios digitales, los cuales
como hemos visto generan un importante sesgo en la información que consumimos.

79
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

El auge de los movimientos antivacunas solo es un ejemplo de los efectos que pueden
provocar las redes sociales sobre la población general. Estas se han convertido en una
barra libre de fake news, desinformación y propaganda malintencionada. Los mensajes
de, principalmente, partidos políticos, grupos de presión y medios de comunicación ma-
lintencionados se han convertido en una auténtica amenaza para la vida pública. Cada
vez es más difícil saber qué es verdad y que es mentira o es simplemente información
tergiversada.

La distorsión de la información que se quiere comunicar no es nueva. Ocultar información,


desinformar y hacer propaganda son característica del uso de la información desde que
los seres humanos somos seres humanos. Internet y las redes sociales han derivado en
que hoy en día la tecnología sea muy eficaz para transmitir información falsa.

Las redes sociales no solo se utilizan como via para difundir información falsa si no como
elemento de estabilización de grandes masas sociales. Varios ejemplos a partir de 2009
han demostrado el poder político, económico y social que la red ejerce sobre nuestra so-
ciedad. La famosa Revolución Twitter: se habla de ella para las manifestaciones que afec-
taron a Irán, poco después la censura de China a Google, la primavera árabe, la difusión
de información electoral para las elecciones de EE.UU. o el Brexit, así como acontecimien-
tos más recientes que han afectado a la escena internacional como la difusión de informa-
ción en Rusia sobre la guerra de Ucrania.

Las redes sociales y la inteligencia artificial tienen un impacto directo sobre nuestras so-
ciedades y nuestras vidas. Existe una serie de casos particulares en los que las decisiones
tomadas por la inteligencia artificial tienen un impacto directo sobre la vida de las per-
sonas y este debe ser medido con cautela antes de poner en marcha cualquiera de estos
sistemas frente al público general. Algunos de estos ejemplos son:

3.1. Vehículos autónomos


Como hemos estudiado en otras unidades de este master, los coches autónomos son una
de las grandes aplicaciones tecnológicas de la inteligencia artificial en la que mas foco e
inversión se está poniendo es estos momentos. Uno de los desarrollos más esperados en
la industria automotriz son los coches sin conductor. Y, aunque actualmente está retrasa-
do debido a la pandemia y la disminución de la demanda de vehículos, no pasará mucho
tiempo antes de que veamos vehículos autónomos circulando por nuestras carreteras.

El desarrollo de esta tecnología cuenta con importantes retos técnicos desde el punto
de vista de madurez tecnológica. El Internet de las Cosas (IoT), la tecnología conecta-
da, y la Inteligencia artificial han logrado grandes avances, los cuales han permitido que
contemos con algunos modelos de estos vehículos en el mercado. IoT proporcionará a
los vehículos datos en tiempo real para detectar problemas operativos y comprender las
condiciones ambientales.

80
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Además, la llegada de la tecnología 5G representa una oportunidad para avanzar en el


campo de las tecnologías conectadas y establecer este tipo de vehículos en el mercado.
Aun así, se necesita un avance en muchas áreas tecnológicas para hacer posibles los co-
ches autónomos. La tecnología en la nube, la ciberseguridad, la robótica, la navegación
espacial, los láseres o la fotografía son las áreas involucradas y deben seguir evolucionan-
do para que esta tecnología sea realmente posible.

En segundo lugar, el mayor desafío al que se enfrentan este tipo de vehículos es la toma
de decisiones razonables por parte de los vehículos autónomos. Este reto involucra, no
solo a la tecnología, sino a ámbitos como la filosofía y la ética, o la regulación legal.

Si los vehículos son completamente autónomos para circular y frenar también lo tendrán
que ser para tomar decisiones complicadas en una fracción de segundo, como decidir
chocar con un niño o herir a los propios ocupantes para salvarle.

Estas inquietudes éticas reales tienen que ser abordadas por profesionales en la materia,
como son los filósofos, por lo que no será poco común que las empresas tecnológicas
comiencen a contar con estos profesionales para que colaboren directamente con los in-
genieros en el desarrollo de los algoritmos que definirán el comportamiento de los robots.

Además, estas valoraciones éticas a la hora de programar tendrán que hacerse de manera
diferenciadas según la cultura que tengan los usuarios de estos futuros robots. Los juicios
morales que emitimos están muy influenciados por la cultura a la que pertenecemos. Y
así lo ha demostrado “Moral Machine”, un juego online desarrollado por el Massachusetts
Institut Technology (MIT).

Figure 28: Ejemplo de pregunta de la máquina moral desarrollada por el MIT [61]

81
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Es posible probar esta herramienta a través de su página web:

https://www.moralmachine.net/hl/es

Este juego nos pone en la tesitura de decidir ante escenarios hipotéticos cual seria la
decisión más adecuada para un coche autónomo. ¿A quiénes debería salvar y sacrificar
estos autos? A un grupo de peatones que cruzan la calle, a los pasajeros dentro del auto,
a un peatón en la banqueta o más difícil aún, a niños o ancianos. ¿Y cómo cambiaría tu
perspectiva si fueran tus familiares?

Este dilema ha representado, en los últimos años, uno de los mayores desafíos en materia
de seguridad de estos autos.

El dilema del software de conducción autónomo se plantea a menudo como un experi-


mento ético clásico, principalmente como el dilema del tranvía planteado por Philippa
Foot[62]. En este dilema se plantea una situación de emergencia: un tranvía avanza sin
poder ser detenido, a pocos metros se encuentran cinco personas amarradas a la vía. Sin
embargo, encontramos una bifurcación justo antes de alcanzarlas, con solo accionar una
palanca el tranvía cambia de dirección, pero en esta otra vía encontramos a una sexta
persona, la cual se encuentra también atada a la vía. ¿Debemos accionar la palanca? In-
tervenir significaría matar a una persona por nuestra acción, pero no intervenir acabaría
en dejar morir a cinco.

Figure 29: escenificación del dilema del tranvía [63]

El desarrollo de los coches autónomos cuenta con otra dificultad técnica añadida debido
a la alta complejidad que presenta el problema de conseguir un vehículo capaz de circular
de una manera totalmente autónoma. La programación basada en reglas implícitas es de-
masiado simple para poder desarrollar estos sistemas, por lo que se programan haciendo
uso de modelos de aprendizaje por refuerzo incluyendo mecanismos de introducción de
datos masivos que reciben tanto de sus propios componentes sensoriales como de las
bases de datos que la empresa desarrolladora les proporciona. El proceso de aprendizaje
es vitalicio, es decir, el software va a seguir recibiendo datos y actualizando sus compo-
nentes algorítmicos de manera permanente desde su primera puesta en marcha.

82
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Uno de los principales desafíos de este tipo de mecanismos es corroborar de manera in-
equívoca de qué manera el sistema está aprendiendo, ya que dentro del aprendizaje por
refuerzo se incluyen modelos de Deep learning cuya explicabilidad puede llegar a ser
muy compleja.

En la mayoría de los casos, es complicado descifrar el porqué se genera un resultado u


otro. Por ello la forma con la que se evalúa el correcto funcionamiento de este software es
mediante la observación de sus acciones y cómo estas se desempeñan. Esta imposibili-
dad de descifrar los algoritmos generados presenta dudas en cuanto a las decisiones que
puede tomar un vehículo sin conductor y la ética la hora de llevarlas a cabo. No es posible
saber por qué se ha priorizado una decisión por encima de una alternativa. Lo único que
se puede hacer es analizar la acción, su resultado y sacar conclusiones.

La tecnología de estos vehículos tiene una implantación limitada, ya que esta puede no
ser viable bajo ciertos contextos concretos. Por ejemplo, implantar esta tecnología en paí-
ses en vías de desarrollo como la India o países limítrofes similares, donde las normativas
de tráfico son bastante más laxas respecto a las que podemos encontrar en los países
donde se desarrolla esta tecnología. La implantación de este tipo de vehículos sin realizar
una correcta adaptación a las circunstancias del entorno, como puede ser la presencia de
grandes animales en las vías, carreteras en mal estado y mal estado de los vehículos que
circulan, puede hacer que la presencia de coches autónomos se convierta en algo real-
mente peligroso para la vida humana.

En estas adaptaciones también es necesario tener en cuenta el libre albedrio humano. Un


coche programado para seguir una serie de normas de seguridad va a cumplirlas siempre,
sin embargo, una persona en el mejor de los casos cumplirá la mayor parte de ellas. Es
en estos casos cuando la relación robot-humano es bastante imperfecta. Los humanos
tenemos capacidad para predecir algunos comportamientos ajenos de manera incons-
ciente como si fueran propios. Esto es debido al desarrollo cognitivo y a la experiencia
y el razonamiento. Una máquina no es capaz de realizar este tipo de predicciones por lo
que la integración de este tipo de vehículos en la circulación general va a suponer una
adaptación no solo por parte de la tecnología si no también por parte de los conductores.

3.2. Inteligencia artificial aplicada a la medicina


La inteligencia artificial está cambiando el cudado de la salud y la práctica médica en todo
el mundo. Actualmente, hay cada vez más evidencia de que la incorporación de la inteli-
gencia artificial (IA) en la medicina clínica es una gran y precisa ayuda para diagnosticar
ciertas enfermedades y médicos, pero en un marco de tiempo mucho más corto. Varios
equipos en el mundo occidental han desarrollado y utilizado efectivamente el aprendizaje
automático para detectar el cáncer de mama temprano, detectar enfermedades graves de
la retina o diagnosticar neumonía.

83
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

El algoritmo no solo determina el diagnóstico correcto,sino que también evalúa la grave-


dad de cada caso individual y recomienda el tratamiento más adecuado. Está claro que
la inteligencia artificial puede ayudar a los médicos a realizar diagnósticos instantáneos,
especialmente en campos especializados que requieren un examen cuidadoso de muchas
imágenes, como la radiología o la patología. Esto es aún más importante en países rura-
les o en desarrollo donde hay pocos especialistas. También está claro que se mejorará el
proceso aún engorroso y costoso y en un futuro cercano los médicos podrán utilizar la
inteligencia artificial para tomar mejores decisiones y brindar la mejor atención posible
a sus pacientes.

Sin embargo, la incorporación de esta tecnología al ámbito de la sanidad plantea desafíos


éticos ineludibles. El principal y más peligroso para la salud humana es la posibilidad de
que ocurra una negligencia médica debido al malfuncionamiento de la Inteligencia Ar-
tificial. Esto puede ocurrir debido a un mal diagnóstico realizado por la IA debido a que
los datos introducidos en el sistema son incorrectos o incompletos. Los sistemas de inte-
ligencia artificial que se emplean en medicina están sometidos a rigurosos controles de
efectividad, pero en la actualidad solo son utilizados como herramienta por los profesio-
nales de la salud, si permitir que su resultado sea tomado como un diagnóstico definitivo.

Figure 30: ejemplo de diagnostico mediante imagen usando IA [66]

Un factor que se debe tener en cuenta también dentro del ámbito de la salud es el origen
de los datos que se emplean para entrenar a los algoritmos destinados al diagnostico en la
actualidad. La infrarrepresentación de determinados grupos sociales por motivos de raza,
sexo o bagaje hace que estos modelos puedan presentar una precisión inferior a la que se
observó en su entrenamiento cuando se emplean este tipo de datos.

84
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

El segundo desafío ético que se plantea en la aplicabilidad de la inteligencia artificial


a la medicina es el riesgo adicional para la privacidad y confidencialidad del paciente,
el análisis de los límites entre el papel del médico y el de la máquina en la atención al
paciente, la certeza de que las personas tendrán la información que necesitan respecto
a dichas herramientas para tomar una decisión informada y que los riesgos de daños
frente a posibles beneficios se evaluaran siempre. La introducción de nuevas tecnologías
que evolucionan rápidamente hace que existan nuevas partes interesadas, como grandes
empresas tecnológica, nuevos datos personales y técnicas computacionales y analíticas
las cuales carecen de reglamentos o estándares comunes para guiar esta convergencia en
el ámbito de la salud.

Para poder adoptar una inteligencia artificial ética en el sector sanitaria esta debe ser res-
petuosa, transparente, segura y justa. Para ello debe de cumplir una serie pilares transver-
sales. Desde DigitalES [64], la Asociación Española para la Digitalización, la cual reúne a
las principales empresas del sector de la transformación digital, han emitido una serie de
recomendaciones para garantizar la ética dentro del sector:

Transparencia y Explicabilidad

Los sistemas de inteligencia artificial que se empleen en el ámbito sanitario deben ser
sometidos a estrictas regulaciones de transparencia y explicabilidad. Los pacientes tie-
nen derecho a saber en qué momento están interactuando con un sistema de inteligencia
artificial y en qué medida ha intervenido este en su diagnóstico. Además es necesario
establecer unos criterios mínimos de explicabilidad que deban ofrecer los sistemas de
inteligencia artificial a los profesionales sanitarios. Estos deben garantizar la trazabilidad
para que las decisiones tomadas por sistemas de IA puedan ser auditadas, evaluadas y
explicadas por las personas responsables.

Para facilitar esta labor será necesario incorporar una base de formación tecnológica a los
profesionales de la salud que vaya a estar en contacto con estos sistemas.

Privacidad

Es necesario crear mecanismos que garanticen la privacidad y correcto tratamiento de


los datos de carácter personal y sensibles que puedan ser utilizados por estos sistemas.
En este aspecto es importante poner el foco en la correcta anonimización de los datos
que garantice la privacidad de estos a la vez que puedan ser utilizados para fines de in-
vestigación como el desarrollo de nuevos medicamentos, tratamiento de enfermedades,
diagnósticos clínicos…

Para facilitar esta labor es necesario torgar la formación y conocimientos necesarios a las
empresas/centros sanitarios para asegurar el cumplimiento de la normativa en protección
datos, evitando confusiones o actuaciones ilícitas fuera del margen legal.

85
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Calidad del dato y discriminación

Los sets de datos disponibles para llevar a cabo el entrenamiento de modelos de inteli-
gencia artificial destinados a la medicina son limitados y la mayoría de ellos correspon-
den con datos recogidos en los entornos hospitalarios donde se puede llevar a cabo el
desarrollo de esta tecnología. Esto hace que el muestreo de datos disponible se encuentre
sesgado y solo sea representativo de las poblaciones con capacidad para acudir a ese tipo
de centros. Es necesario aplicar acciones de formación y explicabilidad dirigidas al perso-
nal sanitario sobre los posibles sesgos de información que manejan.

En este aspecto también es necesario requerir a los desarrolladores la inclusión de meca-


nismos de control, incluyendo la intervención humana, que garanticen la no presencia de
sesgo de ningún tipo en sus soluciones.

Robustez

Es necesario Definir unos niveles mínimos de fiabilidad y precisión para cada tipo de
aplicación de los sistemas de IA que se deban cumplir antes de ponerlos en producción,
en función de la sensibilidad del caso de uso.

Asimismo, será necesario Promover la implantación de un sistema de protección o de


almacenamiento que permita crear copias de seguridad y proteger los datos de pacientes
ante cualquier tipo de inconveniente, ya sea apagón, error o destrucción del sistema, ata-
ques de seguridad.

No todos los modelos algorítmicos ofrecen los mismos resultados en los distintos casos
de uso. El expertise en el ámbito health (y la experiencia previa de otras investigaciones
y organizaciones) será esencial para saber escoger entre Machine Learning y Deep Lear-
ning

Autonomía y supervisión humana

Los sistemas de inteligencia artificial deben utilizarse de manera adecuada y por personal
debidamente capacitado. Estos no pueden operar de manera autónoma y deben existir
mecanismos de control, medición de impacto y reparación para las personas que puedan
verse afectadas negativamente por decisiones basadas en algoritmos.

En el ámbito sanitario es pertinente contar con el apoyo de técnicos debidamente acredi-


tados e independientes que pudieran validad y adecuar el manejo de ciertas herramientas
para cada uno de los usos para los que fueron diseñadas.

86
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Regulación y responsabilidad

Se debe trabajar en un marco que defina sin ambigüedades los límites de responsabilidad
que tendrían los desarrolladores de sistemas de IA para el ámbito sanitario. También, que
establezca mecanismos de traspaso de la responsabilidad a los profesionales sanitarios
en casos donde deban ser estos profesionales quienes prevalezcan sobre los sistemas de
IA, por el potencial daño que podría ocasionar a las personas un mal desempeño de estos
últimos.

La Inteligencia Artificial debe generar confianza en la población, que entienda sus benefi-
cios y anime al paciente a colaborar en la mejora de su desarrollo a través de la facilitación
de sus datos de salud.

La ética y el desarrollo de IA deben ir de la mano: la ética no debe frenar el desarrollo


tecnológico de la IA. Al igual que el desarrollo de la IA no puede ir por delante del cum-
plimiento ético y atentar contra la privacidad o derechos de los ciudadanos. [65]

3.3. Drones
El uso de drones por la población general suscita una serie de desafíos reguladores. Los
drones están evolucionando más rápido de lo que los legisladores pueden regular, por lo
que, en muchos casos, el uso y la demanda de drones está surgiendo lentamente. Además,
la facilidad con la que se puede adquirir el producto online las hace cada vez más atrac-
tivas. Por otro lado, varios drones que vuelan sobre áreas densamente pobladas pueden
causaraccidentes peligrosos a sus residentes. También pueden causar daños a animales o
propiedad privadaen áreas despobladas.

Además estos plantean el problema ético de la invasión de la privacidad que puede causar
la posibilidad de equiparlos con todo tipo de sensores y cámaras.

Poco a poco van surgiendo estándares éticos y legislaciones que regulan es uso indiscri-
minado de estos dispositivos. Sin embargo estas regulaciones no están llegan a los dro-
nes dotados de inteligencia artificial, mas difíciles de conseguir y que no se encuentran
disponibles para el público general.

Figure 31: Dron dotado de IA y sensores [67]

87
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Estos drones tienen aplicaciones que extiende mucho las posibilidades de uso de estos
sistemas. La inteligencia artificial se puede aplicar a prácticamente toda la tecnología que
nos rodea, y el uso en drones puede ser una forma de establecer una red de cámaras de
reconocimiento que pueden cubrir un espacio que, lógicamente, resulta insalvable para
las cámaras fijas.

Los drones pueden ser utilizados también en ámbitos industriales como en actividades
de construcción, actividades agrícolas e incluso actividades de búsqueda y salvamento.

Sin embargo, utilizar drones con inteligencia artificial puede conllevar una serie de im-
plicaciones éticas. Por ejemplo, uno de los posibles casos de uso de esta tecnología es
la identificación de personas en fuentes de conflicto, como un tumulto causado por una
pelea o un tiroteo. El objetivo de estos sistemas es identificar a agresores, pero también
será útil para controlar asaltos masivos en las fronteras, e incluso un secuestro o vanda-
lismo callejero gracias a un sistema de deep learning que irá ‘’aprendiendo’’ a medida que
sea testigo de los delitos. Los desafíos éticos están muy presentes cuando se muestra un
uso de la IA como este, ya que la tasa de fallo es bastante elevada. Las tasas de fallo de las
cámaras de reconocimiento facial en eventos deportivos son bastante elevadas, por lo que
no son raras las detenciones erróneas [68].

Respecto a los drones el espectro de acierto ideal de la IA es del 94% [69], lo que significa
una tasa de error (que es lo que hay que tener más en cuenta) del 6%. Esto, en grupos muy
numerosos, es bastante elevado.

Figure 32: Ejemplo de funcionamiento de un sistema de vigilancia por dron (DSS) en tiempo real[70]

88
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Es posible ver el funcionamiento de estos sistemas de vigilancia masiva en tiempo real:

https://www.youtube.com/watch?v=zYypJPJipYc&t=14s

Aunque el uso de este tipo de tecnologías puede resultar útil en el ámbito de la seguridad
es necesario tener en cuenta las implicaciones las implicaciones éticas de los mismos.
Muchas personas consideran una invasión de la privacidad el uso de drones para moni-
torización y vigilancia de la población. Además, podría incluir un uso inapropiado o frau-
dulento (terrorismo, espionaje, etc.). Debe, por tanto, asegurarse la protección de los datos
obtenidos mediante estas aeronaves, así como la previsión de contramedidas adecuadas
para los usos no permitidos.

Este tipo de sistemas tienen aplicaciones también en las fuerzas armadas. La inteligencia
artificial se aplica en Defensa y a los sistemas de armas desde el principio de la utilización
práctica de estas tecnologías. Pero, siendo la guerra un fenómeno humano y social, nunca
se debe dejar de lado el aspecto de conformidad ética del empleo de estos sistemas. El
uso de armas letales dirigidas a distancia tiene una larga aplicación. Sin embargo, los
retos éticos se plantean cuando se trata de armas dirigidas por inteligencia artificial que
funcionan sin intervención humana.

La exigencia de encontrar acomodo a los principios éticos de la guerra justa también re-
sulta aplicable al uso de las nuevas tecnologías representadas por la inteligencia artificial.

Es indudable que la utilización de sistemas de armas basados en inteligencia artificial tie-


ne beneficios desde el punto de vista de ahorro de vidas humanas, tanto de combatientes
como de bajas civiles y no se encuentran sujetos a emociones o situaciones en las que las
facultades morales o intelectuales se ven disminuidas. Sin embargo, no faltan voces que
señalan el riesgo de que esos sistemas sean utilizados en el futuro con la capacidad de
tomar la decisión de herir o matar, libres de cualquier control del ser humano.

A esto se suma la condición de que no existe ningún sistema informático libre de ser
hackeado, además la capacidad de un sistema de cometer errores es proporcional a su
complejidad. Por ello cada vez hay más personas dentro del sector que piden diseñar los
sistemas con capacidad para ser abordados en caso de problemas.

La autonomía en los sistemas de armas es un problema profundamente humano. Los ro-


bots de guerra cambian la relación entre las personas y la tecnología al entregar la toma
de decisiones de vida o muerte a las máquinas. Desafían el control humano sobre el uso
de la fuerza, y cuando atacan a las personas, las deshumanizan, reduciéndonos a puntos
de datos.

89
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Pero, las tecnologías son diseñadas y creadas por personas. Tenemos la responsabilidad
de establecer límites entre lo que es aceptable y lo que es inaceptable.

En 2012 fue fundada la asociación Stop Killer Robots (detengan a los robots asesinos),
la cual trabaja para reducir la autonomía de las armas y en pos de utilizar la inteligencia
artificial con fines postivos.

“La tecnología debe usarse para empoderar a todas las personas, no para reducirnos a
estereotipos, etiquetas, objetos o simplemente un patrón de 1 y 0.

Con la creciente deshumanización digital, la coalición Stop Killer Robots trabaja para
garantizar el control humano en el uso de la fuerza. Nuestra campaña pide un nuevo dere-
cho internacional sobre la autonomía en los sistemas de armas.” -Stop Killer Robots [70].

90
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

4. Inteligencia Artificial y
Responsabilidad Social Corporativa
“El concepto de Responsabilidad Social Corporativa ha sido defini-
do de diversas formas sin llegar a un consenso, pero si hay un factor
común a todas estas definiciones, es que reflejan la necesidad de un
impacto más allá del beneficio económico de la empresa.”

4.1. Contexto histórico


La Responsabilidad Social Corporativa comienza a resultar una cuestión fundamental a
tener en cuenta en las empresas y agendas políticas de todo el mundo. Aquellas empresas
que no den prioridad a la sostenibilidad social y medioambiental en su cultura organi-
zacional verán limitado su desarrollo y se verán relegados a una posición de desventaja
respecto a sus competidores. De aquí en adelante, denominaremos a la Responsabilidad
Social Corporativa con la abreviatura RSC.

Previamente al abordaje del concepto de RSC, comenzaremos con un breve contexto his-
tórico para profundizar en las raíces de este fenómeno. Como podremos comprobar, la
responsabilidad organizacional no es un concepto nuevo, pero este ha ido evolucionando
en la medida que las empresas lo han hecho, convirtiéndose en un valor intangible para
las organizaciones y proporcionando un enfoque más actualizado.

Previo a su origen, ya durante la Revolución Industrial comenzó a hacerse evidente la


preocupación de las empresas por los empleados y su productividad. Surgieron acciones
ante las duras condiciones laborales, que pusieron de manifiesto la necesidad de un cam-
bio por parte de los empresarios en cuanto a la responsabilidad social con sus empleados.
Surgieron los primeros esquemas de bienestar cuyo objetivo era prevenir problemas labo-
rales y mejorar el desempeño de los empleados mediante acciones que podríamos inter-
pretar tanto como sociales como empresariales. Entre ellas se incluyeron las donaciones
para la creación de hospitales, viviendas o comedores. [71]

Es en la década de los cincuenta cuando se comienza a construir el concepto de RSC


formalmente. En el año 1953, Howard R. Bowen, considerado “el padre de la RSC”, define
en su libro Social Responsiblities of Businessman este concepto como “ las obligaciones
de los empresarios de seguir aquellas políticas, tomar aquellas decisiones o seguir aque-
llas líneas de acción que sean deseables en función de los objetivos y valores de nuestra
sociedad” [71].

91
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Esta definición cambia la forma de entender las empresas que hasta el momento se ana-
lizaban como un ente aislado de la sociedad, posicionándolas como centros de poder,
donde las decisiones afectan a la sociedad e influyen en los comportamientos de los ciu-
dadanos. Bowen argumenta que la responsabilidad social no es la solución para todos los
problemas sociales de las empresas, pero que contiene una verdad importante que debe
guiar a las empresas en el futuro.

Tras esta primera conceptualización, es en los años sesenta cuando surge una prolifera-
ción de términos y prácticas desarrollando la idea de que la RSC es más que una obliga-
ción simplemente económica con la sociedad. Distintos autores relacionan la responsa-
bilidad de los directivos como agente de acción en la ética de la empresa y el rol social
honesto de ésta en la sociedad. Frederick W.C. (1960) comparte una reflexión sobre la
capacidad de las empresas para crear valor social más allá de la riqueza económica, desta-
cando nuevamente la figura del directivo. En esta etapa todavía no se llegaba a la acción
[72]

Tras el auge del concepto, es en los años setenta cuando se incorporan aspectos legales
y filosóficos que contribuyen a delimitar el término de una forma más precisa. A su vez
se señala la responsabilidad más allá del cumplimiento de los requerimientos legales, de
forma voluntaria y aplicándose a una gama más extensa de valores humanos que tienen
como fin último el bienestar social. Comienzan también a surgir modelos donde se tratan
las responsabilidades que tiene una empresa. El Comité para el Desarrollo Económico
(CED) en 1971 planteó uno de estos modelos.

El CED definió la RSC mediante los “tres círculos concéntricos”:

• Circulo interno: Responsabilidades básicas en cuanto a la gestión económica efi-


ciente de productos, empleo y crecimiento económico

• Circulo intermedio: Responsabilidad de ejercer esta función económica con una


conciencia sensible a los valores y prioridades sociales cambiantes (medio am-
biente, relaciones con los empleados, expectativas de clientes..).

• Círculo exterior: Responsabilidades emergentes que las empresas deben asumir


para involucrarse de forma aún más activa del entorno social. (Pobreza, deterioro
urbano…).

Por su parte, Sethi (1975) distinguió entre tres comportamientos corporativos que podrían
llamarse [73]:

• Obligación social: fuerzas de mercado u obligaciones legales

• Responsabilidad social: congruencia con normas sociales

• Capacidad de respuesta social: Tener en cuenta las necesidades sociales.

92
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Por último Carroll (1979), en uno de los modelos más utilizados, diferencia entre cuatro
tipos de responsabilidad: económica, legal, ética y filantrópica. [73]

Figure 33: Pirámide de responsabilidad corporativa [74]

Durante los años ochenta y noventa se comienzan a tratar temas complementarios o al-
ternativos a la RSC como la capacidad de respuesta social corporativa, el desempeño so-
cial corporativo o la ética empresarial. En los noventa surge un gran interés, en concreto,
por las teorías centradas en los stakeholders. Estos enfoques hacen hincapié en la satis-
facción de las necesidades del conjunto de personas que tienen cualquier tipo de relación
con la organización.

Desde los 2000 hasta la actualidad, se puede destacar que este concepto toma de nuevo
un creciente interés desde el comienzo del siglo XXI presentándose como un activo in-
tangible para las organizaciones. Se comienza a desarrollar de una forma global cobrando
gran importancia en Europa. En línea con la creciente atención que reciben la conserva-
ción y protección del medio ambiente, la sostenibilidad y la ética. Los autores se propu-
sieron demostrar cómo el enfoque de RSC establece una nueva forma de hacer negocios
que combina el éxito y la creación de valor con una actitud respetuosa y proactiva hacia
los grupos de interés y comienzan a surgir guías de buenas prácticas para las empresas.

93
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Las empresas de hoy en día comienzan a tomarse de forma muy seria la formulación de
una responsabilidad social corporativa. Las iniciativas voluntarias de responsabilidad so-
cial empresarial han sido una tendencia importante en los negocios internacionales en
los últimos años. A partir de esta tendencia y puesta en práctica de la RSC, se deduce que
tiene tanto un componente ético o moral como un componente comercial y beneficioso
en términos de rentabilidad para las empresas. En el mundo actual de intensa compe-
tencia global, está claro que la RSC puede ser sostenible mientras continúe agregando
valor al éxito corporativo y es la sociedad la que juega un papel cada vez mayor en lo que
constituye este éxito.

La Responsabilidad Social Corporativa se ha convertido en una práctica fundamental de


las empresas en los últimos años y se posiciona como una forma de generar un valor dife-
rencial, así como un mundo y una sociedad más sostenibles.

En definitiva, aún es pronto para establecer conclusiones acerca de cómo la RSC evolu-
ciona, se adapta a las tendencias cambiantes actuales y avanza en línea con el veloz pro-
greso en innovación. La evolución tecnológica supone una redefinición de la RSC para
tratar nuevos paradigmas como el que supone la gestión de la entrada de la Inteligencia
Artificial en las compañías y sus posibles efectos en el marco de referencia de la respon-
sabilidad social.

4.2. Concepto y principio de la Responsabilidad social corporativa

4.2.1. Concepto
Dada la importante influencia que puede tener este concepto en la innovación y desarro-
llo de las empresas del futuro y, por tanto, en la implementación de la inteligencia artifi-
cial en las empresas, comenzaremos con su definición.

El concepto de Responsabilidad Social Corporativa ha sido definido de diversas formas


sin llegar a un consenso, pero si hay un factor común a todas estas definiciones, es que
reflejan la necesidad de un impacto más allá del beneficio económico de la empresa.

El World Business Council for Sustainable Development (WBCSD) lo define como el


compromiso continuo por parte de las empresas a comportarse éticamente y contribuir
al desarrollo económico a la vez que mejoran la calidad de vida de los trabajadores y sus
familias, así como de la comunidad local y la sociedad en general. [75]

La Comisión Europea en su comunicado de 2011 lo define como la responsabilidad de las


empresas por sus impactos en la sociedad. Para asumir esta responsabilidad, las compa-
ñías deben contar con un proceso para integrar en sus operaciones comerciales y en es-
trecha colaboración con los stakeholders, los asuntos sociales, relativos al medio ambien-
te, ética, derechos humanos y preocupaciones de los consumidores, con el objetivo de:

94
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• Maximizar la creación de valor compartido con los propietarios / accionistas, los


demás grupos de interés y la sociedad en general.

• Identificar, prevenir y mitigar posibles impactos adversos. [76]

El Observatorio de Responsabilidad Social Corporativa define la RSC como la forma


de conducir los negocios de las empresas que se caracteriza por tener en cuenta los im-
pactos que todos los aspectos de sus actividades generan sobre sus clientes, empleados,
accionistas, comunidades locales, medioambiente y sobre la sociedad en general. Así mis-
mo, implica el cumplimiento obligatorio de la legislación nacional e internacional en el
ámbito social, laboral, medioambiental y de Derechos Humanos, así como cualquier otra
acción voluntaria que la empresa quiera emprender para mejorar la calidad de vida de sus
empleados, las comunidades en las que opera y de la sociedad en su conjunto [77].

De este conjunto de definiciones podemos deducir que se hace referencia a un modelo


de relación de las empresas con su entorno en el que se produce un impacto en el ámbito
social, ambiental y económico, bajo el marco legal y de Derechos Humanos. Las empresas
cuentan con recursos para adaptarse a las exigencias del presente y el futuro en un mer-
cado global y en continuo cambio.

Figure 34: Pilares de la RSC [78]

4.2.2. Principios
La Organización Internacional de Normalización (ISO) en su Guía de Responsabilidad
Social tiene el objetivo de definir de una normativa internacional que ayude a las orga-
nizaciones a ser cada vez más socialmente responsables. En esta guía se establecen los
siguientes principios de la Responsabilidad Social Corporativa [79]:

95
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• Rendición de cuentas: Se pueden examinar y verificar todas las acciones de la


organización de forma externa. Debe poder llevarse a cabo un control público y
privado sobre los impactos a nivel ambiental, social y económico. Implica la res-
ponsabilidad sobre las posibles consecuencias negativas generadas y la puesta en
marcha de las medidas correctivas necesarias.

• Transparencia: Muy ligada a la rendición de cuentas, trata el deber de facilitar un


acceso libre y con un lenguaje claro y sencillo a toda la información referente a las
distintas acciones tomadas en línea con la responsabilidad social y la organización.

• Comportamiento ético: Conjunto de normas morales que rigen cualquier com-


portamiento de la organización basado en valores de honestidad, equidad e inte-
gridad. Se refleja la preocupación sincera por conseguir beneficios, no solo econó-
micos, sino para la sociedad y el mundo.

• Respeto a los intereses de las partes interesadas: Deber de respetar, considerar y


responder a las necesidades de todos los stakeholders, haciendo referencia a todo
individuo que puede tener derechos e intereses específicos a tener en cuenta en las
acciones de la organización.

• Respeto al principio de legalidad: Toda acción de la compañía debe enmarcarse


dentro de los marcos legales vigentes y las regulaciones aplicables. Este principio
debe ser de cumplimiento obligatorio para todos los miembros.

• Respeto a la normativa internacional: Las acciones llevadas a cabo deben tomar


en consideración las normativas internacionales y cumplirlas de forma exigente.

• Respeto a los derechos humanos: Promoción y cumplimiento de lo establecido


en la Declaración Universal de los Derechos Humanos aplicable a cualquier ciuda-
dano del mundo.

4.2.3. ¿Qué no es Responsabilidad Social Corporativa?


En ocasiones se puede confundir las acciones llevadas a cabo en el marco de la RSC con
aquellas que tienen que ver con el patrocinio, con las obras sociales puntuales o donacio-
nes. La RSC no es una herramienta de marketing a cambio de beneficios en la diferen-
ciación e imagen de la marca. Es cierto que hay opiniones que apoyan que las empresas
utilizan la RSC como una forma de “greenwashing” con la intención de que tenga un
efecto en forma de publicidad positiva para la organización.

Los actuales marcos regulatorios, guías e instituciones en línea con el compromiso de la


sostenibilidad, marcan el camino a seguir para evitar las malas prácticas. Las actividades
dentro del marco de la RSC están vinculadas a la actividad de la empresa, tienen una in-
tención de permanencia e implica el compromiso de la alta dirección de la organización.

96
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

4.2.4. Importancia de la Responsabilidad Social Corporativa


La RSC se plantea como una herramienta para disminuir el impacto negativo que pueden
ocasionar las diversas actividades de las organizaciones, haciendo hincapié en materias
como los derechos sociales, laborales, el medioambiente y los Derechos Humanos.

La globalización ha generado desigualdades entre países, favoreciendo a los países indus-


trializados y, en cambio, sin responder a las necesidades de los más desfavorecidos. Estos
últimos se encuentran en el margen de la economía global y sin ninguna influencia en
esta situación. Simultáneamente, las nuevas tecnologías nos han facilitado el acceso a la
información, aumentando la conciencia sobre este desequilibrio, que resulta inaceptable
e insostenible.

Por su parte, las empresas han cobrado una mayor relevancia gracias a este fenómeno,
incrementando su tamaño y la deslocalización de su actividad. Dado este creciente poder
de las organizaciones que afecta a la economía general, se exige una responsabilidad de la
misma magnitud hacia la sociedad, que se exprese en las acciones enmarcadas en la RSC.

La deslocalización de la actividad de las empresas tiene como efecto una reducción de


costes, llevando su producción a países que aplican regulaciones más flexibles. Normas
menos exigentes y el distanciamiento geográfico con el lugar en el que la organización
toma decisiones, son factores que contribuyen a disminuir el control sobre las responsa-
bilidades en el impacto que genera la organización.

Las empresas mediante la internacionalización buscan atraer inversión extranjera, a ve-


ces en detrimento del propio desarrollo del país

Una tendencia creciente a una mayor sensibilidad social de las personas hacia el compor-
tamiento de las empresas, un aumento por la preocupación por el deterioro ambiental y
los Derechos Humanos, se convierten en factores que presionan a las empresas para la
adopción de una RSC.

Cada vez se valora más los principios de la RSC frente a los valores del mercado y ren-
tabilidad a la hora de calificar a una buena empresa. Por este motivo, cada vez es más
importante la cultura y los valores de las organizaciones a la hora de movilizar a un gran
volumen de personas.

Así mismo, los organismos públicos internacionales cada vez establecen un marco de
actuación obligatorio en cuanto a un desarrollo empresarial más sostenible. Algunos
ejemplos de iniciativas donde se dan lugar a las inquietudes y expectativas comunitarias
son el Pacto Mundial de las Naciones Unidas, el Libro Verde de la Comisión Europea o la
normativa ISO 26000.

97
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

En septiembre de 2015, se aprueban los Objetivos de Desarrollo Sostenible (ODS) como


parte de la agenda 2030. Se obtienen 17 ODS que el Pacto Mundial unifica en 10 princi-
pios que establezcan el marco que permita un seguimiento medible en cuanto a Respon-
sabilidad Social Corporativa. Las empresas que se unen a la iniciativa, aceptan estos 10
Principios, comprometiéndose a implementarlos a nivel interno y, por lo tanto, a respetar
los derechos humanos y normas laborales, a preservar el medioambiente y a actuar con
transparencia en sus actividades y operaciones. Además, las empresas deben presentar
sus avances, a través de un Informe no financiero de libre acceso. [80]

Figure 35: Pillares del desarrollo sostenible [80]

Las empresas cumplen con las responsabilidades básicos con las personas y el planeta
pero, además, construyen los cimientos para un éxito a largo plazo.

En los últimos años, la ética se ha posicionado como un elemento de especial relevancia


en el ámbito empresarial. Las organizaciones han empezado a experimentar la rentabili-
dad de la ética derivando en ventajas para todos los stakeholders, el planeta, la sociedad
en general y una rentabilidad financiera.

Es de especial relevancia la evolución a la llamada Industria 4.0 que pone sobre la mesa
nuevos retos para la Responsabilidad Social Corporativa de las empresas. La incorpo-
ración creciente de la Inteligencia Artificial en las empresas trae consigo un debate en
cuanto a cómo va a afectar a la transparencia, confianza y credibilidad de las organiza-
ciones y, por tanto, a su sostenibilidad. En los siguientes puntos nos detendremos en el
análisis de este factor de especial relevancia.

98
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

4.2.5. Inteligencia Artificial Y Responsabilidad Social Corporativa


La Inteligencia Artificial comienza a tener impacto en las organizaciones y a definir nue-
vas cuestiones éticas para su abordaje, no sólo en relación con la pérdida de puestos de
trabajo, sino también en cómo gestionar los problemas asociados al uso de nuevas tecno-
logías en cuanto a aspectos como la transparencia, confianza y sostenibilidad recogidos
en la RSC.

La evolución de la IA supone la creación de sistemas autónomos capaces llevar a cabo


tareas en las organizaciones que previamente solo desempeñaba la inteligencia humana.
Algunas de ellas son calcular, predecir, aprender, adaptarse a diversas situaciones, clasifi-
car objetos e, incluso, se podría utilizar para automatizar decisiones como cuando se debe
invertir en bolsa, que jurisprudencia es más adecuada para un caso, a quien conceder un
préstamo o decidir sobre la adecuación de un candidato en un proceso de selección.

4.2.6. La Inteligencia Artificial y materias fundamentales


de la responsabilidad social corporativa
Gobierno organizacional

El gobierno de la organización tiene la responsabilidad de permitir o no que la IA asuma


la responsabilidad de los impactos de sus decisiones y actividades.

Derechos humanos

En octubre de 2017, Sofía, producida por Hanson Robotics, fue el primer robot en recibir la
ciudadanía en Arabia Saudita. Es motivo de debate si la inteligencia artificial consciente
de sí misma podría entrar en conflicto con los humanos y actuar de un modo que no se
aprueba o perjudicarnos, ya que en este caso supondría una violación de los Derechos
humanos. Así mismo, si la IA tiene funciones humanoides, se plantea la cuestión de si
tendría derechos humanos.

Prácticas laborales

La IA simula la inteligencia humana mejorando la velocidad de trabajo, la precisión y


resolviendo diversos problemas, incluidas situaciones peligrosas y entornos extremos,
que supondrían un peligro potencial para nosotros. Al mismo tiempo, esta ventaja podría
tener un efecto adverso en la sociedad. En primer lugar, habrá muchos trabajos que serán
reemplazados por robots en el futuro, en especial aquellos de baja cualificación. Este he-
cho generará un impacto en los derechos de los trabajadores existentes y en el índice de
desempleo.

99
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 36: Eje central de la responsabilidad social corporativa [81]

El entorno

El desarrollo de la IA supone el incremento de desechos electrónicos. Algunos de ellos


contienen plomo, arsénico, mercurio y otras sustancias nocivas. Estas sustancias no solo
son muy difíciles de eliminar, sino que también son muy tóxicas y muy dañinas para per-
sonas y medio ambiente. Asi mismo, la IA podría ser una herramienta para conseguir un
futuro y un planeta más sostenible.

Prácticas justas de operación

Los problemas de prácticas operativas justas en AI surgen en las áreas de anticorrupción,


competencia leal, comportamiento socialmente responsable, seguridad, relaciones con
otras organizaciones y respeto por los derechos de propiedad. El objetivo está en cómo
hacer que las herramientas de inteligencia artificial identifiquen las decisiones éticamen-
te correctas.

100
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Si una empresa tiene tecnología de IA, tendrá ventaja competitiva y, por tanto, existe la
posibilidad de incrementar las desigualdades con los países más desfavorecidos, lo cual
sería tema de interés para la RSC.

Problemas del consumidor

Los productos de la IA pueden ser un buen recurso para consumidores y ofrecer un nuevo
nicho de mercado a las empresas. La IA podría ser útil para hacer frente a necesidades
básicas, adaptaciones, soporte y servicios en el día a día.

En la era digital, a menudo nos enfrentamos al problema de la privacidad personal, com-


partiendo datos con las empresas. Esto provoca un dilema moral y ético en el uso y tra-
tamiento de la información. La IA podría ser un recursos fundamental para el correcto
tratamiento de esa información.

Participación y desarrollo de las comunidades

Tras este análisis, podemos extraer que la IA tiene un papel fundamental en el futuro de
las materias fundamentales de la RSC.

4.3. Riesgos y Beneficios de la Inteligencia Artificial


Los beneficios que la Inteligencia Artificial puede proporcionar a la sociedad y el mundo
son múltiples, desde la facilitación de procesos administrativos hasta la predicción de pi-
cos de contaminación en las ciudades. Si bien el objetivo es la consecución de beneficios,
también debemos tener en cuenta los riesgos que deben abordarse para evitar situacio-
nes no deseadas.

4.4. Posibles riesgos


Existen múltiples riesgos asociados a la inteligencia artificial desde el punto de vista de
las corporaciones que debemos tener en cuenta a la hora de plantear este tipo de solucio-
nes tecnológicas.

101
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Figure 37: Principales riesgos asociados a la inteligencia artificial en el entorno corporativo [82]

En la Figura 37 podeos observar los riesgos considerados como más relevantes por las
empresas en materia de Inteligencia Artificial. A continuación, analizaremos los más rele-
vantes en relación con la Responsabilidad Social Corporativa [83]:

Ciberseguridad y seguridad

La automatización fácilmente puede comprometer la seguridad y convertirse en una ven-


taja competitiva a la hora de robar información. Se deben desarrollar algoritmos seguros,
fiables y sólidos para operar de manera precisa y responder a posibles fallas o errores de
los sistemas, así como a ataques cibernéticos.

Cumplimiento Normativo

La IA y la opacidad de muchos algoritmos puede crear incertidumbre y obstaculizar la


aplicación efectiva de un marco normativo en materia de seguridad y derechos funda-
mentales.

Europa es la primera potencia mundial en tener su propia ley de Inteligencia Artificial en


respuesta a los riesgos que esta puede suponer. Las empresas tendrán que realizar una
evaluación para el Reglamento IA garantizando la seguridad mediante el establecimiento
de normas de clasificación aplicables a las máquinas de alto riesgo.

102
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

La propuesta de la Comisión de una normativa en materia de IA tiene por objeto garan-


tizar la protección de los derechos fundamentales y la seguridad de los usuarios, a fin
de que haya confianza en el desarrollo y la adopción de la IA de una forma sostenible y
transparente. [84]

Transparencia

El sistema IA puede funcionar como una caja negra, sabemos lo que ocurre al final pero
no lo que sucede en el proceso intermedio. Se produce una falta de trazabilidad y expli-
cación clara sobre el funcionamiento y criterios que usan los sistemas para tomar una
decisión. Este hecho no permite un acceso libre a la información y entra en conflicto con
el principio de transparencia de la RSC, suponiendo un riesgo en cuanto a las consecuen-
cias imprevisibles que puede tener la automatización.

Privacidad personal

Como usuarios podemos revelar información privada y vulnerable que puede ser gestio-
nada de un modo poco ético por la IA. El problema resultante es que la información puede
ser utilizada con el fin de manipulación en beneficio de grupos específicos, más allá del
bienestar social.

Reputación de la Organización

Así como la RSC ha mostrado sus resultados generando una mejor imagen de la organiza-
ción, en contraposición la IA puede difundir una imagen de escasa transparencia, amena-
zando la privacidad de los individuos y poniendo en duda su deber con la sociedad. Hasta
que se establezca una regulación más estricta, son las propias compañías las que se tienen
que autorregular y garantizar a los usuarios transparencia en la toma de decisiones.

Justicia y equidad

La IA puede generar desigualdades en todo el mundo puesto que supone una ventaja
competitiva de los países con un mayor nivel de desarrollo tecnológico. Para un correcto
cumplimiento de la RSC es fundamental que se usen los datos de una manera honesta,
transparente e imparcial con el fin de evitar la discriminación de las minorías.

Impacto en el empleo y los derechos del trabajador

Una de las principales preocupaciones gira entorno a la desaparición de puestos de traba-


jo debido a la implementación de la IA en las organizaciones, en especial aquellos pues-
tos que requieren de baja cualificación a favor de un aumento de la productividad y una
disminución de costes en recursos humanos. Esta cuestión entraría en conflicto con la
responsabilidad social de las empresas con sus stakeholders y la sociedad, aumentando
su vulnerabilidad y la desigualdad social.

103
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Según el informe Mckinsey, coronavirus y robotización supondría la desaparición de 7


millones de puestos de trabajo.

Autonomía y seguridad física

Uno de los mayores temores asociados a la ciencia ficción y referente al futuro de la IA


consiste en que se vuelva autónoma y tome sus propias decisiones sin tener en cuenta
el criterio humano, atentando contra nuestra integridad física. En el marco de la RSC
siempre debe priorizarse el respeto por la vida y los derechos humanos por encima del
desarrollo de la IA.

Seguridad nacional y estabilidad política

La información sensible que supone la vulnerabilidad del país puede ser manejada por
la IA. Si dicha información no es tratada con extremada precaución puede suponer una
brecha en nuestra seguridad nacional. Así mismo el uso de esta tecnología para la carrera
de armas inteligentes y otros medios de destrucción masivos supone un riesgo y una
vulneración de los Derechos Humanos.

Transformación de las relaciones humanas

Debido a la creciente innovación en herramientas con IA como el metaverso, uno de los


riesgos es la transformación de nuestra forma de relacionarnos.

Responsabilidad y rendición de cuentas

Según los principios de la RSC debe poder llevarse a cabo un control sobre los impactos
a nivel ambiental, social y económico de la IA, así como una asignación de responsabi-
lidad para la reparación de errores. En la Al es difícil establecer una clara asignación de
responsabilidades ante posibles daños. Es necesaria una normativa sobre si es el sistema
o la organización dueña de la tecnología la entidad responsable.

Dilemas éticos complejos

Si tenemos en cuenta el marco de la RSC la IA debería priorizar siempre la integridad y


los derechos humanos, pero ante situaciones que requieren una respuesta compleja, la
decisión la tomará la IA será regida por unos principios éticos. Por ejemplo, en el caso
de un accidente inevitable entre dos coches ¿qué vida se debe priorizar? Al elegir una
perspectiva ética se busca la universalidad de principios que sirvan como guía pero es
una tarea de gran complejidad.

104
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Perpetuación de sesgos

El uso de los algoritmos presentes en la IA, no siempre garantizan mayor objetividad, ya


que reflejan los sesgos que se obtienen de los datos del mundo real y pueden albergar
prejuicios y sesgos discriminatorios (género, raciales, de decisión, etc..)

Definitivamente, dada la velocidad del desarrollo tecnológico, es difícil adelantarnos a


todos sus riesgos. La solución se plantea en la creación y desarrollo de protocolos y mar-
cos éticos reguladores dentro de la RSC de las empresas con apoyo de los organismos
públicos.

4.5. Beneficios de la inteligencia artificial para la responsabilidad


social corporativa en línea con los objetivos de desarrollo sostenible
Dentro de los objetivos de desarrollo sostenible acordados en el Pacto Mundial de 2015
donde se plantean como parte de la agenda 2030 existe un amplio campo de actuación
para la Inteligencia Artificial [85]. Estos objetivos se encuentran recogidos en la Figura 35
como pilares del desarrollo sostenible.

ODS 1 Fin de la pobreza y ODS 2 Hambre 0

Basada en la capacidad de la IA para la identificación y recogida de grandes cantidades


de datos, se identifican regiones y poblaciones con necesidades. La identificación se reali-
za mediante el procesado de imágenes por satélite de las distintas regiones y es analizada
por algoritmos que establecen correlación entre la luz artificial y la situación socioeconó-
mica de una región. Esta correlación puede llegar a predecir la distribución de la pobreza
en los países. Además, la IA también tiene un importante campo de actuación en la
agricultura. Maquinaria automatizada y robots son los encargados de sembrar, recolectar
y también de predecir las cuestiones que optimizaran y producirán mejores cultivos.

ODS 3 Salud y Bienestar

La IA recientemente ha sido aplicada a la medicina digital contribuyendo a la investiga-


ción, registros médicos electrónicos y la medicina de precisión. Gracias a esta tecnología,
el diagnostico de enfermedades mediante el análisis de datos, especialmente centrados
en el procesado de imágenes ha evolucionado de manera notable. La integración de esta
tecnología en los dispositivos móviles facilita la llegada de atención sanitaria a lugares
que actualmente no cuentan con medios suficientes.

La inteligencia Artificial se está aplicando extensivamente en el área de investigación


para creación de nuevos fármacos o la detección precoz de enfermedades, gracias a su
capacidad de aprendizaje y análisis de patrones.

105
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

ODS 4 Educación de calidad

La IA puede ser un medio para mejorar la calidad de la educación y hacerla más accesible
para todos en organizaciones e instituciones educativas. Hay sistemas de decisión algo-
rítmica cuya función es asignar el nivel educativo optimo según el perfil educativo. Bots
y asistentes virtuales pueden facilitar la interacción y planificar un uso más eficiente de
los recursos. Traductores simultáneos en línea en cualquier lugar del mundo pueden faci-
litar la accesibilidad. Además, podría crearse de un sistema de aprendizaje personalizado
mediante el análisis de patrones de aprendizaje, adaptándose a la habilidad y velocidad de
aprendizaje de cada persona. En esta línea, se puede incorporar tecnología que obtenga
información sobre el ambiente, el lenguaje, estado emocional para este fin.

ODS 5 Igualdad de género Y ODS 10 Reducción de desigualdades

Actualmente, Amnistia Internacional y la compañía ElementAI han usado técnicas de


ciencias de datos y aprendizaje para medir la violencia y el abuso contra las mujeres en
Twitter para predecir el contenido abusivo y erradicarlo. El estudio ha identificado que las
mujeres negras son más susceptibles de este tipo de violencia.

Cabe destacar que el trabajo para fomentar la reducción de cualquier desigualdad esta en
la eliminación de los sesgos de los propios algoritmos, puesto que, al ser obtenida de los
datos sesgados de la realidad, pueden albergar sesgos discriminatorios de cualquier tipo
que condicionen un buen resultado. La eliminación de los sesgos humanos mediante la IA
nos ayudará a obtener una visión más justa, honesta e igualitaria de la sociedad, teniendo
en cuenta en cuenta todos los colectivos, minorías y grupos en riesgo de exclusión.

ODS 6 Agua limpia y saneamiento

La digitalización para una gestión del agua más inteligente estaría dentro del concepto
“Smart cities” lugares donde la tecnología se combina con los elementos cotidianos y el
ser humano para solucionar problemas sociales, económicos y medioambientales. La IA
puede hacer un análisis exhaustivo que permita proteger y mejorar la calidad y distribu-
ción de este recurso fundamental.

ODS 7 Energía asequible y no contaminante

La utilización de big data, aprendizaje, IoT o los sistemas ciberfísicos pueden ser de
utilidad a la hora de promover la integración de suministros de energía mixtos y ayudar
a realizar un pronóstico de energías renovables. Contribuye a una gestión eficiente de
la demanda de energía, sirve para promover un uso responsable en la producción de las
empresas, incrementando el uso inteligente de energía renovable, reduciendo el impacto
medioambiental de la actividad de las empresas, reduciendo coste y fomentando un pre-
cio justo.

106
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

ODS 8 Trabajo decente y crecimiento económico

Una de las principales preocupaciones que definíamos previamente era el efecto de la


automatización en el empleo. La IA automatizará algunas ocupaciones previamente des-
empeñadas por el ser humano pero también creará otros puestos de trabajo no existentes
hasta el momento, promoviendo la adquisición de nuevas habilidades.

ODS 9 Industria, innovación e infraestructuras

Gracias a la IA podríamos realizar una asignación más eficiente de los recursos de pro-
ducción haciendo uso de logaritmos para realizar predicciones y la toma de decisiones en
cuanto a las acciones necesarias a llevar a cabo en las actividades de la empresa con el uso
responsable y optimizado los recursos y el mantenimiento de la maquinaria. El objetivo
es promover una industrialización sostenible e inclusiva que fomente la innovación en
lo denominado Industria 4.0. Estas acciones facilitarán la innovación en salud, servicios,
transportes y administración pública.

ODS 11 Ciudades y comunidades sostenibles

Las “Smart cities” tendrán un sistema de IA que las recorra como si constituyese su sis-
tema nervioso configurando ciudades sostenibles. Algunas de las aplicaciones que ac-
tualmente se llevan a cabo, es el uso de la IA para predecir picos de contaminación en las
ciudades. Podría hacerse uso de esta tecnología para hacer accesibles viviendas dignas
a los ciudadanos, mejorar un transporte publico sostenible, la movilidad y los espacios
verdes y azules dentro de las ciudades.

ODS 12 Producción y consumo responsables

La IA, a través de la robótica y la tecnología de precisión, nos dota de oportunidades para


mejorar la producción y alcanzar el consumo responsable. Un ejemplo podría ser la agri-
cultura de precisión. La IA tiene capacidad para minimizar el impacto medioambiental de
la cadena de suministros, contribuyendo a la reducción de huella de carbono que suponen
los procesos de producción.

Además, puede cambiar la forma en las empresas gestionan residuos orgánicos y quími-
cos, permitiendo la clasificación de residuos y la creación de un ciclo de reciclaje inteli-
gente.

107
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

ODS 13 Acción por el clima, ODS 14 Vida submarina y ODS 15 Vida de ecosistemas
terrestres

Gracias a las imágenes obtenidas por satélite y el análisis de la información histórica del
entorno, mediante algoritmos de predicción las ciudades podrían tener la oportunidad de
prevenir y prepararse ante posibles desastres naturales y otros hechos climáticos. Actual-
mente, la ONU dispone de una herramienta para priorizar necesidades de las distintas
ciudades y monitorizar sistemas y servicios de red para identificar debilidades. De este
modo, se construyen ciudades más con capacidad de predicción y adaptación

En empresas pesqueras se podría utilizar para la detección y clasificación de deshechos


en los océanos. Con imágenes y análisis de históricos se pueden predecir los cambios mi-
gratorios de animales marinos, las corrientes oceánicas, control de la temperatura de los
océanos y, de este modo contribuir a la preservación de los ecosistemas marinos.

Del mismo modo se puede contribuir a la conservación de bosques, así como contribuir
a la caza furtiva e ilegal mediante el desarrollo de algoritmo y utilización de drones o
vehículos aéreos no tripulados que identifiquen la caza furtiva, incendios u otros peligros
para la conservación de los ecosistemas terrestres.

ODS 16 Paz, justicia e instituciones sólidas y ODS 17 Alianzas para lograr objetivos

La IA y los sistemas multiagente pueden crear entornos virtuales que permitan generar
modelos sobre los protocolos y restricciones de comportamiento de los agentes institu-
cionales y la organización social. En definitiva, se trata de crear “instituciones electróni-
cas” como solución a posibles colapsos.

Así mismo crear una gobernanza global puede permitir tanto a países desarrollados como
no desarrollados a encontrar el modo de cumplir los ODS, fomentando una alianza. La IA
puede proporcionar las herramientas para obtener, analizar y proporcionar información
necesaria para facilitar una cooperación y alianza mundial.

4.6. ¿Cómo aplican las empresas la responsabilidad social corporativa


a la inteligencia artificial? Ejemplos de buenas prácticas

4.6.1. TELEFONICA TECH: AI of Things


Telefónica es una empresa que cree en las soluciones digitales como herramienta para
el desarrollo de la sociedad, fomentando un impacto positivo en las personas y el medio
ambiente en línea con los ODS. Basan sus soluciones en datos y la aplicación de la Inteli-
gencia Artificial, tecnologías big data, IoT, cloud, Conectividad y Blockchain de un modo
responsable y respetuoso con la privacidad de las personas. [86]

108
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Implementación de Principios éticos de Inteligencia Artificial en las operaciones

En 2018 su Comité Ejecutivo adopta los Principios d Inteligencia Artificial garantizando


el uso adecuado de la información y la transparencia, evitando sesgos.

Figure 38: Principios de la IA por Telefonica Tech [87]

Algunas líneas de actividad y proyectos

• Preparación y respuesta ante desastres naturales: En colaboración con Unicef,


el proyecto Magic Box analiza e integra los datos extraídos de la red de telefonía
móvil. Ayudan a localizar núcleos de población vulnerables e identificar patrones
de movilidad previa y posterior al desastre.

• Migración: Gracias al uso de datos móviles y la capacidad analítica de LUCA, su


unidad de servicios de Big Data, se detectan y cuantifican patrones de movilidad
que pueden estar potencialmente vinculados a lugares vulnerables a fenómenos
climáticos extremos.

109
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• Medioambiente, cambio climático y agricultura: Gracias a su plataforma de aná-


lisis de movilidad, Smart Steps, establecen relaciones entre movilidad y contami-
nación en ciudades como Madrid y Sao Paulo, prediciendo niveles de NO2.

• Salud Pública y seguridad ciudadana: Machine Learning y modelos predictivos


se usan para tomar decisiones preventivas en estos ámbitos.

• Educación digital: Profuturo es una iniciativa impulsada por Fundación Telefóni-


ca y La Caixa con el objetivo de reducir la brecha educativa en el mundo, propor-
cionando una educación digital de calidad a niños y niñas de regiones desfavore-
cidas de Asia, África Subsahariana y América Latina.

Servicios para empresas sostenibles

Telefónica además proporciona los llamados servicios digitales Eco Smart que ayudan
a las empresas a aumentar su eficiencia energética y sostenibilidad para proteger el pla-
neta. Las soluciones que ofrecen están basadas en una red 100% renovable y baja en emi-
siones. Los servicios Eco Smart de cloud, IoT, big data e Inteligencia Artificial reducen
el consumo de energía, emisiones de CO2 y agua, y potencian la economía circular. Sus
beneficios están verificados por AENOR.

4.6.2. Audi
En otra línea de actuación, el fabricante de automóviles Audi comienza a utilizar la IA
para asegurar a la sostenibilidad de su actividad. [88]

Desde 2020, la IA es la encargada de completar la supervisión de la cadena de suministro.


Cuenta con algoritmos inteligentes que analizan la información sobre proveedores dispo-
nibles públicamente, recogiendo noticias en más de 50 idiomas de 150 países. Se realiza
un análisis que abarca criterios de sostenibilidad como la contaminación o la violación de
los derechos humanos. Si alguno de los criterios se cumplen, la IA da el aviso correspon-
diente. De este modo, Audi pretende garantizar que sus proveedores cumplen con estos
estándares de sostenibilidad.

Esta tecnología también es la encargada de la prevención en materia de Ciberseguridad,


analizando los informes indicativos de presuntos ciberataques, fraudes o robos de datos.

4.6.3. Microsoft
Microsoft es una de las grandes tecnológicas que lideran la carrera de la inteligencia
artificial a nivel global.

Una de las primeras contribuciones de Microsoft en cuanto a la IA y su papel fundamental


en una sociedad sostenible, fue su libro The future Computed. En este libro muestran su
perspectiva sobre la dirección de la tecnología de IA y los nuevos problemas sociales.

110
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Actualmente, mediante su iniciativa “AI for Good”, ponen la tecnología, recursos y expe-
riencia al servicio de aquellas empresas y organizaciones que trabajan para resolver pro-
blemas humanitarios y crear un mundo más sostenible y accesible. Cuentan con varios
proyectos: [89]

AI for Earth, en el que utilizan la IA para resolver los problemas del clima global y desa-
fíos medioambientales. En esta línea, han creado The planetary computer que combina
un catálogo de múltiples petabytes de datos ambientales globales con API intuitivas para
proporcionar un entorno científico flexible de la sostenibilidad. OceanMind es un proyec-
to que aumenta la sostenibilidad de la pesca mundial, gracias a la detección del tráfico
marino sospechoso por medio de IA.

AI for Health, colabora con organizaciones que contribuyen con algunos de los desafíos
de la salud global. El acceso a la tecnología de Microsoft, como Azure High Performance
Computing , Azure Machine Learning , Power BI , la plataforma Return to School Power
Platform y la plataforma de privacidad diferencial SmartNoise , han acelerado el progreso
realizado en la investigación en salud de los beneficiarios de estas colaboraciones.

AI for Humanitarian Action se centra en cuatro prioridades: recuperación en desastres,


abordar necesidades de los niños, protección de los refugiados y promover el respeto
de los Derechos Humanos. Se usa la IA para equipar a las ONGs y organizaciones para
realizar análisis predictivos y marcos de bots para localizar tanto la oferta como la deman-
da que sustentan el tráfico de personas. Operation Smile utiliza IA de visión artificial y
modelado facial para mejorar los resultados quirúrgicos de niños que necesitan cirugías
faciales. En el caso de los desastres naturales, IA y modelado de datos son recursos para
pronosticar y detectar señales tempranas de los desastres que pueden ocurrir.

AI for Accesibility es un programa para empoderar a las personas que tienen algún tipo
de discapacidad. Las iniciativas en este ámbito se centran en el desarrollo de tecnología
de asistencia, hogar, comunidad, educación y empleo.

111
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

Bibliografía

• [1] Inteligencia Artificial: Machine Learning y Deep Learning, Máster en Inteligen-


cia Artificial CEUPE, Sara Andrés

• [2] Noticias Parlamento Europeo https://www.europarl.europa.eu/news/es/headli-


nes/society/20200827STO85804/que-es-la-inteligencia-artificial-y-como-se-usa

• [3] Bourdié, S. V. (2019). Aplicaciones de la Inteligencia Artificial en la Empresa.


Universidad de Cantabria.

• [4] https://www.deepmind.com/publications/a-generalist-agent

• [5]https://ciberseguridad.com/guias/nuevas-tecnologias/inteligencia-artificial/
superinteligencia-artificial/#Caracteristicas_de_la_ASI

• [6] http://ftp.campusvirtual.utn.ac.cr/objetos%20de%20aprendizaje%20profesores/
exelearning%20etica%20profesional/eticaprofesional/conceptos_y_definiciones.
html

• [7] https://www.acm.org/about-acm/code-of-ethics-in-spanish

• [8] http://www.bcs.org.uk/

• [9] https://www.ieee.org

• [10] https://legoutdulibre.com/wp-content/uploads/SageCofeOfEthics-es.pdf

• [11]https://books.google.es/books/about/Yo_Robot.html?id=EKS1Dw
AAQBAJ&printsec=frontcover&source=kp_read_button&hl=es&redir_
esc=y#v=onepage&q&f=false

• [12]https://es.wikipedia.org/wiki/John_W._Campbell#La_leyenda_negra_de_
Campbell

• [13] Publication: Profiles of the FuturePublication Record # 262387, Author: Arthur


C. Clarke, Date: 1973-00-00, ISBN: 0-330-23619-9 [978-0-330-23619-5], Publisher:
Pan Books, Pages: 253

• [14] Shermer, Michael (January 2002). «Shermer’s Last Law». Scientific American.

112
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• [15] Conesa-Sevilla, J. (2016). Ecopsychology Revisited: For Whom do the Nature


Bells Toll? (ch. 8, p. 256)

• [16] James Klass

• [17] https://es.wikipedia.org/wiki/Ley_de_Poe

• [18] https://media.iese.edu/research/pdfs/ST-0522.pdf

• [19]https://www.ipsos.com/sites/default/files/ct/news/documents/2022-01/Opi-
niones%20Globales%20y%20Expectativas%20sobre%20la%20IA%20-%20Ipsos-
WEF%20-%20Jan%202022%20-%20Reporte%20Español.pdf

• [20] https://aiethicslab.com

• [21] https://www.ai.se/en/projects-9

• [22] https://aiindex.stanford.edu/wp-content/uploads/2021/05/2021-AI-Index-Re-
port_Spanish-Edition.pdf

• [23] https://www.aepd.es/es/derechos-y-deberes/cumple-tus-deberes/principios

• [24] https://edri.org/files/1012EDRi_full_position.pdf

• [25] Gandhi, P. (2019). Explainable Artificial Intelligence. Retrieved from KD Nu-


ggets: https://www.kdnuggets.com/2019/01/explainable-ai.html

• [26]https://towardsdatascience.com/the-balance-accuracy-vs-interpretability-
1b3861408062

• [27] https://towardsdatascience.com/explainable-ai-application-of-shapely-values-
in-marketing-analytics-57b716fc9d1f

• [28] Miller, Tim. “Explanation in artificial intelligence: Insights from the social
sciences.” arXiv Preprint arXiv:1706.07269. (2017).

• [29] https://christophm.github.io/interpretable-ml-book/simple.html

• [30] Interpretable Machine Learning: A Guide For Making Black Box Models Ex-
plainable, Christoph Molnar (Autor)

• [31] “Why Should I Trust You?”: Explaining the Predictions of Any Classifier Marco
Tulio Ribeiro, Sameer Singh, Carlos Guestrin

• [32]https://www.oreilly.com/content/introduction-to-local-interpretable-model-
agnostic-explanations-lime/

113
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• [33]https://towardsdatascience.com/the-shapley-value-for-ml-models-f1100b-
ff78d1

• [34] https://towardsdatascience.com/explainable-ai-xai-methods-part-1-partial-de-
pendence-plot-pdp-349441901a3d

• [ 3 5 ] h t t p s : // b l o g s . u p m . e s /c a t e d r a - i d a n a e / w p - c o n t e n t /u p l o a d s /
sites/698/2019/09/3T19-Quarterly-iDANAE.pdf

• [36]https://fingfx.thomsonreuters.com/gfx/rngs/AMAZON.COM-JOBS-
AUTOMATION/010080Q91F6/index.html

• [37] https://ai.googleblog.com/2019/12/fairness-indicators-scalable.html

• [38]https://sloanreview.mit.edu/article/diversity-in-ai-the-invisible-men-and-
women/#:~:text=Gender%20comparisons%20are%20also%20stark,%2C%20
while%2078%25%20are%20male.):

• [39]https://theconversation.com/ai-is-in-danger-of-becoming-too-male-new-re-
search-121229

• [40] https://ainowinstitute.org/discriminatingsystems.pdf

• [41] https://pair-code.github.io/what-if-tool/

• [42] https://ai.googleblog.com/2019/12/fairness-indicators-scalable.html

• [43]https://learn.microsoft.com/en-us/azure/architecture/guide/responsible-inno-
vation/

• [44]https://learn.microsoft.com/en-us/azure/architecture/guide/responsible-inno-
vation/judgmentcall

• [45]https://learn.microsoft.com/en-us/azure/architecture/guide/responsible-inno-
vation/harms-modeling/

• [46]https://learn.microsoft.com/en-us/azure/architecture/guide/responsible-inno-
vation/community-jury/

• [47] https://jefferson-center.org/about-us/how-we-work/

• [48]https://www.microsoft.com/en-us/research/uploads/prod/2020/05/Fairlearn_
whitepaper.pdf

• [49] https://aif360.mybluemix.net

114
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• [50] https://www.pwc.com/gx/en/issues/data-and-analytics/artificial-intelligence/
what-is-responsible-ai.html

• [51] https://github.com/pymetrics/audit-ai

• [52] http://www.datasciencepublicpolicy.org/our-work/tools-guides/aequitas/

• [53] https://github.com/EthicalML/xai

• [54] https://github.com/QData/TextAttack

• [55] https://github.com/ayong8/FairSight

• [56] https://www.imdb.com/title/tt0470752/

• [57] https://www.filmaffinity.com/es/film889720.html

• [58] https://www.imdb.com/title/tt0182789/

• [59] https://www.tucuvi.com/platform

• [60] https://www.amazon.com/b?ie=UTF8&node=16008589011

• [61] https://www.moralmachine.net/hl/es

• [62] Grimes, W. (2019). Philippa Foot, 90, Dies; Philosopher Who Posed ‘Tro-
lley Problem’. [En líınea] Nytimes.com. Disponible en: https://www.nytimes.
com/2010/10/10/us/10foot.html. [Consultado: Abril 2019].

• [63] https://ddd.uab.cat/pub/tfg/2019/tfg_182235/_GOMEZ_GINEL_DAVID_IM-
PLICACIONES_ETICAS_VEHICULOS_AUTONOMOS.pdf

• [64] https://www.digitales.es

• [65] https://www.digitales.es/wp-content/uploads/2022/02/Informe_IA_Etica_
en_Sanidad.pdf

• [66] https://www.immedicohospitalario.es/noticia/20983/inteligencia-artificial-y-
radiografias-de-torax-anticipan-el-diagno.html

• [67] https://computerhoy.com/noticias/tecnologia/estos-son-drones-inteligencia-
artificial-que-identifican-peleas-260099

• [68] https://www.scribd.com/document/377980664/South-Wales-Police

115
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• [69] https://arxiv.org/pdf/1806.00746.pdf Eye in the Sky: Real-time Drone Survei-


llance System (DSS) for Violent Individuals Identification using ScatterNet Hybrid
Deep Learning Network’. The paper will appear in the Efficient Deep Learning for
Computer Vision (ECV) workshop at IEEE Computer Vision and Pattern Recogni-
tion (CVPR) 2018.

• [70] https://www.stopkillerrobots.org

• [71] Carroll, A. B. (2008). A history of corporate social responsibility: Concepts and


practices. The Oxford handbook of corporate social responsibility, 1.

• [72]González Masip, J. y Cuesta Valiño, P. (2018) De responsabilidad social a


sostenibilidad corporativa: una revisión actualizada. Revista Internacional de
Investigación en Comunicación aDResearch ESIC. No 17 Vol 17

• [73] Barrio Fraile, E. (2016). La gestión de la responsabilidad social corporativa: el


caso Unilever España. Universitat Autònoma de Barcelona,.

• [74] International Journal of Corporate Social Responsibility, 2016

• [75] Derobert, E., & Operations Howard Klee, J. World business council for sustai-
nable development.

• [76]https://www.carm.es/web/pagina?IDCONTENIDO=24376&IDTIPO=11&RAST
RO=c2126$m34201

• [77] https://observatoriorsc.org/la-rsc-que-es/

• [78] https://tgs-global.com

• [79] https://www.iso.org/obp/ui#iso:std:iso:26000:ed-1:v1:es

• [80] https://www.pactomundial.org

• [81] https://www.madrimasd.org/blogs/sostenibilidad_responsabilidad_social/

• [82] https://www.mckinsey.com

• [83] https://ec.europa.eu/commission/presscorner/detail/es/qanda_21_1683

• [84] https://centromexico.digital/riesgos-de-la-inteligencia-artificial/

• [85] Monasterio Astobiza, A. (2021). Inteligencia Artificial para el bien común


(AI4SG): IA y los Objetivos de Desarrollo Sostenible. Arbor: Ciencia, Pensamiento
y Cultura, 197 (802). https://doi.org/10.3989/arbor.2021.802007.

116
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC

• [86] https://aiofthings.telefonicatech.com/por-que-nosotros/sostenibilidad

• [87] https://www.telefonica.com/es/sostenibilidad-innovacion/como-trabajamos/
principios-negocio-responsable/

• [88] http://prensa.audi.es/2022/01/31/audi-utiliza-inteligencia-artificial-para-con-
tribuir-a-la-sostenibilidad/

• [89] https://www.microsoft.com/en-us/ai/ai-for-good

117
CEUPE
Centro Europeo de Postgrado

Web
www.ceupe.com

E-mail
[email protected]

También podría gustarte