Mod2 - Desafíos Éticos y RSC
Mod2 - Desafíos Éticos y RSC
Desafíos éticos
y RSC
Módulo
Desafíos éticos
y RSC
1. ÉTICA EN LA INTELIGENCIA ARTIFICIAL.............................................................. 03
1.1. INTELIGENCIA ARTIFICIAL................................................................................ 03
1.1.1. INTELIGENCIA ARTIFICAL ESTRECHA (ANI)............................................... 04
1.1.2. INTELIGENCIA ARTIFICIAL GENERAL (AGI)................................................ 05
1.1.3. SUPER INTELIGENCIA ARTIFICIAL (ASI)...................................................... 08
1.2. INTELIGENCIA ARTIFICIAL E INTELIGENCIA HUMANA...................................... 11
1.3. ÉTICA ............................................................................................................. 14
1.4. LEYES DE LA ROBÓTICA.................................................................................. 15
1.5. PERCEPCIÓN SOCIAL DE LA INTELIGENCIA ARTIFICIAL.................................... 22
2. DESAFÍOS ÉTICOS DE LA INTELIGENCIA ARTIFICIAL.......................................... 30
2.1. PRIVACIDAD Y PROTECCIÓN DE DATOS.......................................................... 35
2.1.1. TÉCNICAS DE INTERPRETABILIDAD Y EXPLICABILIDAD DE MODELOS
DE INTELIGENCIA ARTIFICIAL............................................................................. 40
2.2. DETECCIÓN DE SESGOS.................................................................................. 56
3. ROBOÉTICA. CÓMO NOS AFECTAN LAS DECISIONES DE LA INTELIGENCIA
ARTIFICIAL................................................................................................................ 75
3.1. VEHÍCULOS AUTÓNOMOS.............................................................................. 80
3.2. INTELIGENCIA ARTIFICIAL APLICADA A LA MEDICINA..................................... 83
3.3. DRONES.......................................................................................................... 87
4. INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD SOCIAL CORPORATIVA......... 91
4.1. CONTEXTO HISTÓRICO................................................................................... 91
4.2. CONCEPTO Y PRINCIPIO DE LA RESPONSABILIDAD SOCIAL CORPORATIVA..... 94
4.2.1. CONCEPTO.............................................................................................. 94
4.2.2. PRINCIPIOS.............................................................................................. 95
4.2.3. ¿QUÉ NO ES RESPONSABILIDAD SOCIAL CORPORATIVA?........................ 96
4.2.4. IMPORTANCIA DE LA RESPONSABILIDAD SOCIAL CORPORATIVA ............ 97
4.2.5. INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD SOCIAL
CORPORATIVA .................................................................................................. 99
4.2.6. LA INTELIGENCIA ARTIFICIAL Y MATERIAS FUNDAMENTALES DE LA
RESPONSABILIDAD SOCIAL CORPORATIVA........................................................ 99
4.3. RIESGOS Y BENEFICIOS DE LA INTELIGENCIA ARTIFICIAL............................... 101
4.4. POSIBLES RIESGOS........................................................................................ 101
4.5. BENEFICIOS DE LA INTELIGENCIA ARTIFICIAL PARA LA RESPONSABILIDAD
SOCIAL CORPORATIVA EN LÍNEA CON LOS OBJETIVOS DE DESARROLLO
SOSTENIBLE.......................................................................................................... 105
4.6. ¿CÓMO APLICAN LAS EMPRESAS LA RESPONSABILIDAD SOCIAL
CORPORATIVA A LA INTELIGENCIA ARTIFICIAL? EJEMPLOS DE BUENAS
PRÁCTICAS.......................................................................................................... 108
4.6.1. TELEFONICA TECH: AI OF THINGS.......................................................... 108
4.6.2. AUDI...................................................................................................... 110
4.6.3. MICROSOFT........................................................................................... 110
BIBLIOGRAFÍA......................................................................................................... 112
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Para poder definir el concepto de Inteligencia Artificial, debemos en primer lugar descri-
bir qué entendemos por Inteligencia. La mayoría de las definiciones se pueden resumir
en la capacidad del ser de entender, de comprender, de razonar, de adaptarse al ambiente
o de solucionar problemas.
A partir de esta tesis podemos definir la inteligencia artificial como la habilidad de una
máquina de presentar las mismas capacidades que los seres humanos, como el razona-
miento, el aprendizaje, la creatividad y la capacidad de planear. La IA permite que los
sistemas tecnológicos perciban su entorno, se relacionen con él, resuelvan problemas y
actúen con un fin específico. La máquina es entrenada con datos (previamente procesa-
dos o recopilados por el propio sistema), los procesa y responde a ellos. Los sistemas de
IA son capaces de adaptar su comportamiento en cierta medida, analizar los efectos de
acciones previas y de trabajar de manera autónoma [2].
03
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• Estos sistemas están programados para realizar una tarea especifica acotada a una
serie de condiciones y parámetros.
04
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Esta IA se desarrolla siguiendo los patrones humanos en su aprendizaje sobre las per-
cepciones, necesidades, emociones, creencias y diferentes procesos de pensamiento hu-
manos en diversos contextos. El cerebro humano se esta utilizando como patrón para
desarrollar esta nueva tecnología lo cual esta planteando importantes desafíos a los desa-
rrolladores. La complejidad del funcionamiento del cerebro humano es un área que aún
se encuentra en investigación.
Los desarrolladores de Gato definen el enfoque aplicado como inspirado por el progreso
en el modelado de lenguaje a gran escala. Esto les ha permitido construir un único agente
generalista más allá del ámbito de los resultados de texto. El agente, al que nos referimos
como Gato, funciona como una política generalista multimodal, multitarea y multicorpo-
ración. La misma red con los mismos pesos puede reproducir Atari, subtitular imágenes,
chatear, apilar bloques con un brazo robótico real y mucho más, decidiendo en función de
su contexto si generar texto, pares de unión, pulsaciones de botones u otros tokens.
05
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Al implementar Gato, se tokeniza un aviso, como una demostración, que forma la secuen-
cia inicial. A continuación, el entorno produce la primera observación, que también se
tokeniza y se agrega a la secuencia. Gato muestrea el vector de acción de forma autorre-
gresiva, un token a la vez.
Una vez que se han muestreado todos los tokens que comprenden el vector de acción
(determinado por la especificación de acción del entorno), la acción se decodifica y se
envía al entorno que avanza y produce una nueva observación. Luego se repite el procedi-
miento. El modelo siempre ve todas las observaciones y acciones anteriores dentro de su
ventana de contexto de 1024 tokens.
06
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Gato está capacitado en una gran cantidad de conjuntos de datos que comprenden la ex-
periencia del agente en entornos simulados y del mundo real, además de una variedad de
conjuntos de datos de imágenes y lenguaje natural. Aquí se muestra el número de tareas
en las que el rendimiento del modelo Gato preentrenado está por encima de un porcenta-
je de la puntuación del experto, agrupadas por dominio [4].
Gato prueba la hipótesis de que es posible entrenar a un agente que sea capaz, en gene-
ral, de un gran número de tareas y que ese agente general puede ser adaptado con pocos
datos adicionales para tener éxito en un número aún mayor de tareas.
Sin embargo, Gato no es la única inteligencia artificial multitarea que podemos encontrar
actualmente. Hay algunas inteligencias artificiales que han sobrepasado las capacidades
de las inteligencias artificiales estrechas o débiles. Un ejemplo de ellas es el GPT-3, un
modelo de lenguaje que puede realizar distintas tareas sin un entrenamiento específico y
que ha logrado sorprendentes resultados imitando de manera impecable el estilo de escri-
tura de los humanos. OpenAI, la compañía que lo desarrolla ha anunciado que dentro de
poco estará lista la siguiente versión, el GPT-4, que, pese a que no se sabe mucho de ella
todavía, debería llevar esta tecnología un paso más allá.
07
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Por otro lado, podemos encontrar los desarrollos de coche autónomo llevados a cabo por
Tesla la compañía de Elon Musk, que consideran que para poder alcanzar una autonomía
real, primero deben alcanzar la inteligencia artificial general. En esta misma tecnología
está sustentado su nuevo proyecto, el robot humanoide Optimus, el cual, según las pala-
bras del fundador del proyecto, podrá sustituir y mejorar en habilidades cualquier tarea
de mano de obra realizada por humanos.
Las máquinas con superinteligencia pueden plantear escenarios y teorías que estarían
fuera de las capacidades cognitivas de los seres humanos. Esto se debe al hecho de que la
capacidad cognitiva del cerebro humano se encuentra limitada por los recursos bilógicos
de los que dispone, unos pocos miles de millones de neuronas.
ASI contaría con una mayor capacidad de memoria y sería capaz de procesar y compren-
der circunstancias, datos y actos de estímulo con más facilidad que un humano. Como
resultado, podemos estar seguros de que las capacidades de toma de decisiones y re-
solución de problemas de los seres/máquinas superinteligentes serán muy superiores y
precisas a las de los humanos [5].
Algunas de las posibles características que plantaría esta tecnología en el futuro y que la
diferenciaría de otras tecnologías y formas de inteligencia son:
08
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Este tipo de inteligencia artificial aún está muy lejos de ser factible y hasta ahora solo
podemos hablar de superinteligencia artificial a través de la ciencia ficción o de proyectos
en vías muy iniciales de desarrollo que aún tienen importantes limitaciones que superar
para ser viables.
Este puede tener importantes aplicaciones en la realización de tareas repetitivas que re-
quieran importantes esfuerzos físicos y atención pero que no cuenten con importantes
variaciones de la misma. Una de las primeras áreas para las que se está desarrollando este
proyecto es para la completa automatización de las fábricas automovilísticas de Tesla,
pero una vez la tecnología este madura nuevos campos de aplicación surgirán rápida-
mente como por ejemplo sustituir a trabajadores de alto riesgo como mineros, estibadores
o jornaleros, hasta reponedores de supermercado o camareros.
09
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
La superinteligencia, aunque aún está lejos de ser algo factible, está generando fascina-
ción a personas e investigadores de todo el mundo. Esta cuenta con numerosos riesgos
asociados, sin embargo los investigadores creen que llegar a conseguir esta tecnología
será el mayor logro de la humanidad y nos permitirá desentrañar los misterios del univer-
so y más allá.
10
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Pese a sus riesgos el desarrollo de la inteligencia artificial puede suponer uno de los ma-
yores desafíos de la ciencia moderna y a su vez una de las mayores oportunidades de cre-
cimiento social. La creación de una inteligencia artificial general puede ayudar a resolver
los grandes retos humanos como, por ejemplo:
• El calentamiento global
• Conservación de la naturaleza
11
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Desde ese punto de vista la inteligencia artificial puede considerarse que tiene como obje-
tivo desarrollar tres ramas que permitan emular las facultades cognitivas de las personas:
Los dispositivos de inteligencia artificial estrecha o dispositivos que cuenten con una IA
débil tienen una relevancia ética fácil de determinar. Estos dispositivos pueden operar de
forma automática pero no poseen una inteligencia de tipo general que les permita operar
de manera automática. Estos dispositivos generalmente se encuentran programados para
realizar una única tarea, en la que pueden superar las habilidades de un humano, pero no
tienen capacidad propia para realizar otro tipo de tareas, ni de actuar de forma racional.
Analizados desde un punto de vista ético no son imputables, ya que la responsabilidad
ética de su funcionamiento recae directamente sobre las personas encargadas de su dise-
ño y funcionamiento. La reflexión ética alrededor de este tipo de tecnología debe focali-
zarse en la programación y el diseño de los sistemas, así como en la ética de las personas
encargadas de su desarrollo.
12
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Por otro lado, la consideración ética de los sistemas de inteligencia artificial generales y
la super inteligencia artificial, lo que generalmente conocemos con IA fuerte, es mucho
más compleja. En este caso es importante analizar las capacidades de la propia tecnología
y determinar qué tipo de decisiones es capaz de tomar de manera independiente y cua-
les son fruto de la programación establecida para realizar un cálculo de probabilidades
teniendo en cuenta una diversidad de factores y circunstancias. En el ejemplo de un ve-
hículo autónomo este es capaz de tomar una serie de decisiones por sí mismo, pero dado
un escenario determinado y un conjunto de datos limitado, el curso de acción de estos
sistemas será siempre el mismo. Por ello a la hora de determinar las responsabilidades
morales de este tipo de sistemas existe aún un debate sobre donde se debe trazar la line
de responsabilidad del programador respecto a la del propio sistema. Las decisiones que
han sido tomadas por un sistema con un sistema inteligencia artificial embebida han de
ser diferenciadas en términos de responsabilidad ética, sobre si el origen de esa decisión
se basa en la programación que el diseñador del sistema ha integrado en la plataforma,
o si por el contrario esa decisión ha sido tomada de manera completamente autónoma
por el sistema. Diferenciar este tipo de decisiones no es una tarea sencilla, ya que como
hemos visto en otras unidades de este máster, cuando trabajamos con modelos de Deep
Learning, en muchas ocasiones nos encontramos ante cajas negras, donde no tenemos el
conocimiento completo de la forma en la que se están tomando las decisiones dentro de
nuestro algoritmo. Esto dificulta enormemente la capacidad de discernir de qué manera
se ha completado la salida de un algoritmo.
13
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
1.3. Ética
A lo largo de este máster hemos definido extensamente en que consiste la inteligencia
artificial y cuáles son sus posibles aplicaciones. Para poder comprender el desafío ético
que estas van a suponer para la sociedad debemos comenzar por comprender en que
consiste la ética.
La palabra ética proviene del griego ethikos (“carácter”). Se trata del estudio de la moral y
del accionar humano para promover los comportamientos deseables. Una sentencia ética
supone la elaboración de un juicio moral y una norma que señala cómo deberían actuar
los integrantes de una sociedad.
Por lo tanto, cuando alguien aplica una sentencia ética sobre una persona, está realizan-
do un juicio moral. La ética, pues, estudia la moral y determina cómo deben actuar los
miembros de una sociedad. Por lo tanto, se la define como la ciencia del comportamiento
moral [6].
Aunque la ética siempre fue una rama de la filosofía, su alcance se extiende a otras mu-
chas disciplinas como la biología, la medicina, la economía, la sociología o la tecnología.
• Ética normativa: La ética normativa es la rama de la ética que estudia los posibles
criterios para determinar cuándo una acción es correcta y cuándo no lo es.1 Busca
principios generales que justifiquen los sistemas normativos y argumenta por qué
se deberían adoptar determinadas normas.
Es en esta última área donde recaen los problemas éticos planteados por la evolución de
la inteligencia artificial. Específicamente estos desafíos se contemplan desde el punto de
vista de la ética computacional o ética informática.
14
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Estos códigos están diseñados para inspirar y guiar la conducta ética de todos los pro-
fesionales de la Informática, incluyendo a los profesionales actuales y futuros, a los ins-
tructores, los estudiantes, las personas influyentes y a cualquiera que utilice la tecnología
informática para generar un impacto.
15
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Las leyes de la robótica más conocidas en la actualidad no se tratan de una legislación re-
glada por ninguna institución o gobierno si no que tienen su origen en la ciencia ficción.
Se trata de las tres leyes de la robótica que fueron enunciadas por Isaac Asimov en 1942
en su relato Circulo Vicioso (Runaround) que forma parte del volumen Yo, Robot. Este
recoge cinco cuentos y cuatro novelas cortas de la Serie de los robots, enlazadas entre sí
por la temática y el hilo argumental.
Todos los robots definidos en el universo de ciencia ficción creado por Isaac Asimov se
rigen por las tres leyes de la robótica que establecen lo siguiente:
Primera Ley
Un robot no debe dañar a un humano o, por su inacción, dejar que un humano sufra daño.
Esta ley define la protección básica del ser humano, el robot deberá anteponer la integri-
dad (física o psicológica) de la persona a cualquier otra opción. Esta ley no solo hace alu-
sión al hecho de no causar daño si no al de evitarlo. Asimov especifica aún más y enfoca
esta ley a través de las acciones del robot, pero también a través de aquellos actos que no
llega a acometer (la no-acción)
16
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Segunda Ley
Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando
estas órdenes se oponen a la primera Ley.
Esta ley obliga a los robots a obedecer siempre a los humanos y a rebelarse frente a nin-
guna instrucción, salvo que esta implique causar cualquier tipo de daño a un ser humano,
incluyendo el que da la orden. En este caso un robot deberá obedecer aunque esta orden
atente directamente sobre su integridad física o contra la de otro robot.
Tercera ley
Un robot debe proteger su propia existencia, hasta donde esta protección no entre en
conflicto con la primera o segunda Leyes.
Como vemos, la tercera ley hace referencia a la autoprotección del robot; esta ley deberá
primar, siempre y cuando no sea incompatible con las leyes anteriores (que serán priori-
tarias).
Tras estas tres Leyes principales, Asimov añadió una nueva ley la Ley Cero, que supone
una generalización de la primera de las leyes.
Ley Cero
Un robot no puede dañar a la humanidad ni permitir que sufra ningún daño por inacción.
Esta ley supone una mejoría de la primera ley ya que no incluye al hombre en singular si
no a la humanidad en general.
Aunque estas leyes aparecen en las novelas escritas por Isaac Asimov, el mismo autor ex-
plicó que las redactó, John W. Campbell [12], también escritor estadounidense de ciencia
ficción, a través de una conversación entre ambos. Según Campbell, el propio Asimov ya
tenía pensadas esas leyes, y lo que hicieron fue ponerlas en común, entre ambos.
17
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Las leyes de la robótica propuestas por Asimov son imaginativas y prácticas dentro del
universo que el fantástico escritor recrea. Sin embargo, estas leyes se plantearon basán-
dose en el conocimiento científico y tecnológico disponible durante los años cuarenta y
en la visión futurista que el autor planteaba desde su punto de vista personal de lo que
podía suponer el desarrollo de la tecnología. Desde la formulación de estas leyes los avan-
ces científicos y tecnológicos han sido inimaginables en ese momento, por lo que, pese a
que el criterio definido por Asimov se ha utilizado como punto de partida en numerosos
estudios éticos sobre la legislación en robótica, estas no son lo suficientemente precisas
para hacer frente a los retos que plantea la tecnología actual, ni los que podría plantear
la futura.
Otro ejemplo menos conocido que el de Asimov, es el del investigador y escritor británico
Arthur C. Clarke [13], el cual estableció una serie de leyes sobre el potencial tecnológico.
Estas trataban de predecir y explicar cómo se darían lo avances científicos del futuro.
Cuando un científico, ya anciano y famoso, afirma que algo es posible, probablemente esté
en lo correcto. Pero, cuando dice que es imposible, lo más probable es que se equivoque.
Esta primera ley se formuló en el ensayo Hazards of the Prophecy: The Failure of the
Imagination (1962) [13] y establece que la mayor parted e las invenciones de la ciencia
ficción son posibles y algún día se harán realidad. Esta formulación la apoyan renom-
brados científicos como Stephen Hawking, el cual nos siver como ejemplo de aplicación
de la misma. Este presuponía la imposibilidad de encontrar el bosón de Higgs y que de
encontrarse supondría un poder destructivo fuera de nuestro control. El bosón de Higgs
fue descubierto den 2013 por los físicos belga François Englert y británico Peter Higgs y
hasta el momento tal partícula no ha supuesto incidentes preocupantes.
La única manera de encontrar los límites de lo posible es yendo más allá de esos mismos
límites, y adentrarse en lo que creemos imposible.
Más que una ley, este postulado es una invitación a que la investigación no pare, a que
la ciencia continúe tratando de describir de la mejor manera la realidad y modificarla de
acuerdo a los intereses generales.
18
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Su última ley, formulada bastante más tarde que las dos primeras, esta a pesar de ser la
última de una década, es la más conocida y la más citada. Aparece sólo en la revisión de
1973 del ensayo “Los peligros de la profecía”.5 En 1952, Isaac Asimov en su libro Founda-
tion and Empire (parte 1.1 Search for Magicians) escribió una frase similar “...un público
desinformado tiende a confundir la erudición con los magos...”. Esta frase ha tenido di-
ferentes interpretaciones, pero la principal estipula que cualquier civilización del futuro
habría tenido el suficiente tiempo para haber desarrollado tecnología que vista desde el
pasado pudiera ser confundida con la magia. De la misma manera que si trasladáramos
tecnología de nuestra época a épocas históricas como la Edad Media, resultaría práctica-
mente imposible convencerles mediante explicaciones científicas el funcionamiento de la
misma, y probablemente lo atribuirían a la magia.
Esta cita ha inspirado múltiples variaciones definidas por otros escritores y filósofos:
Ilustración 2: Libro Profiles of the Future donde se presenata la segunda ley de Clarke
19
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Estas leyes, vistas desde la perspectiva actual, al igual que las planteadas por Asimov, se
antojan generalistas y no aplicables más allá del plano teórico.
Los riesgos existenciales derivados del desarrollo de la IA, son más que especulativos y al
día hoy existe consenso a nivel mundial que su desarrollo sin controles éticos y jurídicos
pueden atentar en contra la existencia de la humanidad. En parte este consenso se funda
en la circunstancia que la IA ya está asediando el derecho a la privacidad, a la libertad y a
la igualdad. Y en perspectiva, ya se proyecta científicamente que podría llegar a afectar la
vida humana en su totalidad.
Por ello la Unión Europea ha comenzado a desarrollar una serie de leyes actualizadas a
nuestro tiempo que permitan legislar el mundo que nos rodea y regular el futuro de la
inteligencia artificial. Para ello proponen una actualización de las leyes de la robótica, con
seis principios que luego serán aplicados sobre los textos legislativos:
Primera Ley
Esta ley tiene como objetivo la capacidad de poder controlar cualquier situación en la que
se pueda dar un peligro. Las máquinas que cuentan con inteligencia artifcial contarán con
capacidad de aprendizaje independiente del ser humano, por lo que su comportamiento
no siempre será predecible. Un botón de apagado de emergencia nos permite estar prepa-
rados en caso de situación descontrolada.
Segunda Ley
20
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Tercera Ley
Esta ley se basa en el fundamento en que las inteligencias artificiales no cuentan con la
capacidad de desarrollar sentimientos hacia los seres humanos, tales como el amor, la
amistad o el odio. El objetivo de esta norma es recordarles este principio a los humanos y
debemos relacionarnos con ellas de la misma manera.
De nuevo esta ley puede generar cierta controversia desde la industria de desarrollo de
dispositivos sexo-afectivos, la cual con ayuda de la inteligencia artificial podría desarro-
llar todo una nueva área para la industria.
Cuarta Ley
No todas las máquinas serán iguales ni tendrán las mismas características. Tampoco po-
drán realizar todos las mismas actividades. Es evidente que algunos de ellos tendrán más
riesgo de causar ciertos daños materiales que otros robots.
Por ello, la Unión Europea obligará a los dueños de los robots de mayor tamaño, que son
considerados los que más riesgo tienen de provocar daños en el entorno, la contratación
de un seguro obligatorio como podría suceder en la actualidad con los coches. Esto per-
mitiría al responsable civil responder ante posibles daños en caso de accidente o compli-
caciones.
Quinta Ley
21
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Sexta Ley
El fundamento de esta ley se basa en minimizar el impacto generado por los robots en
el empleo humano. Su entrada en el mercado laboral va a implicar la sustitución de mi-
llones de puestos de trabajo actualmente ocupados por personas humanas por robots.
Estos supondrán un menor coste para las empresas por lo que con la finalidad de reducir
gastos y ampliar los márgenes de beneficio irán sustituyendo sus empleados humanos
por persona electrónicas. Por ello desde el Parlamento Europeo consideran necesario que
las máquinas tributen y las empresas que las emplean paguen impuestos de manera pro-
porcional a los puestos de trabajo sustituidos con el objetivo de poder subvencionar las
ayudas destinadas a las personas afectadas por este cambio.
Esta última ley es crucial en el mantenimiento del denominado estado del bienestar, ya
que uno de los principales riesgos de la entrada de las máquinas en el mercado laboral es
el colapso de la economía debido al desempleo.
Estas leyes fundamentales se han planteado como un marco teórico sobre el que se de-
sarrollará la legislación europea sobe la inteligencia artificial. La evolución de esta legis-
lación va a verse condicionada por la evolución de la tecnología, pero también por los
cambios y estructuras sociales y la relación de las personas con la tecnología.
La Inteligencia Artificial, al mismo tiempo crea una necesidad de actualizar las diferentes
legislaciones, nacionales e internacionales respecto a las definiciones que existen en la
actualidad sobre personas jurídicas, pues el mundo tecnológico debe ir de la mano y ser
compatible con las leyes y justicia por las que nos guiamos, y viceversa. Los avances
en la tecnología dejan obsoletas o, al menos incompletas algunas leyes de los actuales
Códigos Civiles. Este ejemplo podemos verlo también en otras tecnologías como las de-
sarrolladas a partir del avance del blockchain con la creación de las criptomonedas tales
como Bitcoin o Ethereum cuya desregularización hace que no será posible aplicar las mis-
mas leyes comerciales que sobre otro tipo de monedas reguladas. Por ello es importante
mantener una traducción coetánea de las leyes para mantener su utilidad en el mundo
tecnológico actual.
22
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Aun siendo un tema de ciencia ficción hace solo unas décadas, la inteligencia artificial es
hoy una realidad a la que nos enfrentamos a diario. Desde el asistente virtual de nuestro
teléfono móvil hasta los coches autónomos, la inteligencia artificial está cambiando la
forma en que vivimos y trabajamos.
Pese a la demostrada utilidad de esta tecnología en todas las áreas de la vida, en la última
época está surgiendo una creciente preocupación al respecto de las capacidades de esta
tecnología, que está haciendo que muchas personas cambien su forma de interaccionar
con los sistemas.
Este ejemplo, probablemente sea el más conocido, por la evidencia con la que se realiza
esta práctica, sin embargo, existen múltiples aplicaciones de la inteligencia artificial en
las cuales el sujeto el cual está siendo objeto de la aplicación de esta tecnología no es
consciente de ello.
23
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Para poder analizar los resultados de esta encuesta debemos tener en cuenta a la muestra
de personas sobre la que se realizó la misma. Esta encuesta fue realizada en 28 países de
manera online y cuenta con la entrevista de un total de 19,504 adultos de 18 a 74 años de
los Estados Unidos. Canadá, Malasia, Sudáfrica y Turquía y de 16 a 74 en otros 23 mercado
entre el 19 de noviembre y el 3 de diciembre de 2021. La muestra cuenta con aproximada-
mente 1000 individuos en Australia, Brasil, Canadá, China (continental), Francia, Alema-
nia, Gran Bretaña, Italia, Japón, España y EE.UU. y 500 individuos de Argentina, Bélgica,
Chile, Colombia, Hungría, India, Malasia, México, Países Bajos, Perú, Polonia, Rusia, Ara-
bia Saudita, Sudáfrica, Corea del Sur, Suecia y Turquia.
Esta encuesta arrojo los siguientes datos al respecto de las opiniones generales sobre la
inteligencia artificial a nivel global:
Este es uno de los primeros datos que puede resultar sorprendente ya que la comprensión
de las implicaciones de los sistemas de inteligencia artificial requiere un conocimiento,
aunque sea en líneas generales de la tecnología más allá del nivel de un usuario promedio.
Hacer uso de una tecnología puede generar la sensación de tener un conocimiento sobre
ella, que en el caso de la inteligencia artificial no se corresponde con el trasfondo de la
misma.
• Un 60% de los encuestado consideran que los productos y servicios que utilizan
inteligencia artificial cambiarán profundamente su vida diaria en los próximos tres
a cinco años
De esta pregunta podemos extraer que la mayoría de la población tiene una percepción
de la inteligencia artificial como una tecnología en vías de desarrollo, la cual va a aumen-
tar su presencia en el mercado de manera muy significativa en un futuro inmediato
24
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Basándonos en esta respuesta, podemos observar que una mayoría de la población perci-
be la inteligencia artificial como una herramienta efectiva y que tiene un impacto positivo
en su vida.
• Un 50% de los encuestados consideran que conocen que tipo de productos y servi-
cios usan inteligencia artificial.
• Un 49% de los encuestado consideran que los productos y servicios que utilizan
inteligencia artificial han cambiado profundamente su vida diaria en los próximos
tres a cinco años
Podemos interpretar esta respuesta conjuntamente con la que identifica que un 50% de
personas no sabe los productos y servicios que utilizan inteligencia artificial. Con la inte-
gración actual de la inteligencia artificial en los mercados, hacemos un uso de aplicacio-
nes de inteligencia artificial de manera diaria para actividades tan comunes como la hacer
la compra, la reserva de un vuelo, o realizar una búsqueda de información en un motor de
búsqueda online.
Esta pregunta contrapuesta con la confianza en las empresas que utilizan inteligencia ar-
tificial nos da una idea de que la desconfianza se encuentra más en el mal uso que pueda
realizarse de esta tecnología, en la tecnología propiamente.
25
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Ilustración 3: Encuesta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]
Ilustración 4: Encuesta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]
26
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Ilustración 5: Encuesta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]
Ilustración 6:Áreas que se espera que cambien a causa de la Inteligencia Artificial, Encues-
ta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]
27
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Si comparamos los datos de opinión de las áreas en las que la inteligencia artificial va a
suponer un cambio con los datos de opinión de las áreas en las que la inteligencia arti-
ficial va a suponer una mejora respecto a la no utilización de esta tecnología, vemos que
existen diferencias notables en varias áreas. Una de las más llamativas es el empleo, don-
de un 32% de personas consideran que la inclusión de inteligencia artificial va a afectar
al mercado laboral pero un 47% de personas consideran que esta inclusión va a afectar
de manera positiva. Es destacable la positividad con la que se percibe la mejora en áreas
como educación, entretenimiento o seguridad, mientas que el área que menor índice de
positividad presenta es la libertad o derechos legales.
Ilustración 7: Áreas que se espera que mejoren a causa de la Inteligencia Artificial, Encues-
ta Opiniones globales y expectativas sobre la inteligencia artificial, Ipsos [19]
Como conclusiones de esta encuesta podemos extraer que hay una mayoría de la pobla-
ción que considera como positivo el impacto que la inteligencia artificial va a generar en
las distintas áreas de la vida, sin embargo se percibe una preocupación por las implica-
ciones que pueda tener la implantación de esta tecnología. También se puede observar
que existe una clara relación entre conocimiento y percepción. Cuanto más conocimiento,
la percepción de la Inteligencia Artificial y el Big Data es más crítica y real.
28
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
La IA es fundamental para algunas de las empresas con más éxito de la historia en tér-
minos de capitalización del mercado: Apple, Alphabet, Microsoft y Amazon. Junto a la
tecnología de la información y la comunicación (TIC) en general, la IA ha revolucionado
el acceso de personas de todo el mundo al conocimiento, el crédito y otras ventajas de la
sociedad global contemporánea. Dicho acceso ha contribuido a una reducción masiva de
la desigualdad mundial y la pobreza extrema, por ejemplo, al permitir que los granjeros
conozcan los precios justos y los cultivos más rentables y darles acceso a predicciones
meteorológicas precisas.
Para que las distintas sociedades globales entiendan que la inteligencia artificial es una
poderosa herramienta para mejorar la calidad de vida de los ciudadanos y la reducción
de las desigualdades es necesario poner en marcha diferentes estrategias educativas y
comunicativas que permitan un acercamiento de esta tecnología al público general.
29
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Las tecnologías derivadas de la aplicación de inteligencia artificial han supuesto una re-
volución en el mundo de la tecnología que plantea un nuevo paradigma de trabajo. A
medida que estas innovaciones se vuelven más frecuentes en nuestras vidas, los desafíos
éticos de las aplicaciones de la IA son cada vez más evidentes y están sujetos al examen
de instituciones y gobiernos.
30
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Desde Boston, se puso en marcha el proyecto AI Ethics Labs, el cual reúne a investigado-
res y profesionales de diversas disciplinas para detectar y resolver problemas relaciona-
dos con el diseño ético en IA. A través de la colaboración entre informáticos, abogados
en ejercicio, académicos del derecho y filósofos, el laboratorio ofrece un enfoque integral
para el diseño ético de la tecnología relacionada con la IA. El objetivo del proyecto es
mejorar el desarrollo tecnológico mediante la integración de la ética desde las primeras
etapas de diseño y desarrollo para el beneficio mutuo de la industria y las comunidades.
Con ello se busca proporcionar orientación ética a investigadores, desarrolladores y le-
gisladores. [20]
• Hoja de ruta de ética para la IA: Trazar un roadmap ético dentro de cada organiza-
ción, permite evaluar las necesidades éticas de la misma y trazar una estrategia de
aplicación de modelos éticos.
31
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Esta herramienta cuenta con la capacidad de rastrear los artículos publicados sobre el
tema y analizar los mismos, comprendiendo las tendencias y debates sociales que surgen
entorno al tema.
En un intento por abordar aspectos éticos como este, tanto los organismos públicos de
toma de decisiones como la industria y las instituciones académicas han elaborado una
serie de listas de verificación y pautas para una IA ética y confiable. Sin embargo, imple-
mentar estas pautas y ponerlas en práctica a menudo resulta ser un desafío. Por lo tanto,
AI Suecia está lanzando el Laboratorio Sueco de Ética de la IA con el objetivo de ayudar a
que la ética de la IA en Suecia pase de pautas abstractas a una aplicación práctica.
32
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Los datos muestran que las organizaciones profesionales y de investigación fueron de las
primeras en desplegar documentos sobre principios de la IA, y que las empresas privadas
son las que más han publicado hasta la fecha sobre principios de la IA entre todos los
tipos de organizaciones. Europa y Asia Central tienen el mayor número de publicaciones
hasta 2020 (52), seguidas de América del Norte (41) y Asia Oriental y el Pacífico (14). En
lo que respecta al despliegue de los principios éticos, 2018 fue el año en que las empresas
tecnológicas -incluidas IBM, Google y Facebook-, así como varios organismos guberna-
mentales del Reino Unido, la UE y Australia, marcaron claramente el punto álgido.
33
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Otro importante indicador de la relevancia de este tema en la sociedad viene marcado por
la presencia de este tema en la prensa y la relevancia que le de la misma.
Tomando los datos del mismo artículo de Artificial Intelligence Index, este analizó 3.047
artículos relacionados con las tecnologías de inteligencia artificial, las cuales incluyeran
términos como “derechos humanos”, “valores humanos”, “responsabilidad”, “control hu-
mano”, “equidad”, “discriminación”, “transparencia”, “explicabilidad”, “seguridad”, “res-
ponsabilidad” o “privacidad”. Este análisis arrojo que los artículos relacionados con la
orientación y los márcos técnicos de la IA encabezaron la lista de las noticias más cubier-
tas (21%) en 2020, seguidas por las de educación e investigación (20%) y el reconocimien-
to facial (20%).
Los cinco temas de las noticias que recibieron más atención en 2020 relacionados con el
uso ético de la IA fueron:
• El despido por parte de Google del investigador de ética Timnit Gebru (3,5%)
34
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
AI y Big Data van de la mano, lo que ha llevado a muchos a preguntarse si es posible usar
AI mientras se protegen los derechos fundamentales de protección de datos personales.
Las empresas que trabajan con inteligencia artificial ya se enfrentan a una desventaja
ante la opinión pública en términos de privacidad. Según la Organización Europea de
Consumidores en 2020, una encuesta mostró que entre el 45 y el 60% de los europeos es-
tán de acuerdo en que la IA provocará un mayor abuso de los datos personales.
Hay muchos servicios y productos populares en línea que se basan en grandes conjun-
tos de datos para enseñar y mejorar sus algoritmos de IA. Algunos de los datos de esos
conjuntos de datos podrían ser considerados privados incluso por los usuarios menos
conscientes de la privacidad. Los flujos de datos procedentes de redes, páginas de medios
sociales, teléfonos móviles y otros dispositivos contribuyen al volumen de información
que las empresas utilizan para entrenar los sistemas de aprendizaje automático. Gracias a
la extralimitación en el uso de los datos personales y a la mala gestión de algunas empre-
sas, la protección de la privacidad se está convirtiendo en una cuestión de política pública
en todo el mundo.
Muchos de nuestros datos sensibles se recopilan para mejorar los procesos habilitados
por la Inteligencia Artificial. Muchos de los datos analizados también están impulsados
por la adopción del machine learning, ya que los sofisticados algoritmos necesitan tomar
decisiones en tiempo real, basándose en esos conjuntos de datos. Los algoritmos de bús-
queda, los asistentes de voz y los motores de recomendación son solo algunas soluciones
que aprovechan la IA basada en grandes conjuntos de datos de usuarios del mundo real.
35
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Ahora bien, cabe preguntarse cuáles son los escenarios en los que la IA pueda generar
un riesgo al titular de datos personales. A fin de responder esto, debemos señalar que
existen dos aspectos de la IA que son particularmente relevantes para la privacidad. El
primero es que la IA en sí misma puede tomar decisiones automatizadas y, el segundo, es
que el sistema se desarrolla aprendiendo de la experiencia e información proporcionada.
Entonces, cabe preguntarse: ¿Es posible combinar el desarrollo de la IA con un adecuado
tratamiento de los datos personales?
Si nos basamos en los principios de las leyes de protección de datos la inteligencia arti-
ficial debe cumplir con los principios de limitación de propósito, precisión, limitación de
almacenamiento e integridad y confidencialidad.
Para ello debemos tener en cuenta distintos elementos dentro de la protección de datos:
• Finalidad: Los datos personales no pueden ser utilizados con una finalidad distin-
ta a la establecida en el momento de su recopilación.
• Calidad: Los datos personales que se tratan deben ser veraces, exactos y adecua-
dos. Deben conservarse de forma tal que se garantice su seguridad y solo por el
tiempo necesario para cumplir con la finalidad del tratamiento.
36
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Para poder cumplir con estos estándares, el desarrollo de la inteligencia artificial debe
tener en cuenta una serie de principios de protección de datos
Limitación
El principio de limitación del tratamiento de los datos personales requiere que la aplica-
ción de medidas técnicas y organizativas para garantizar que sean objeto de tratamiento
los datos que únicamente sean precisos para cada uno de los fines específicos del tra-
tamiento reduciendo, la extensión del tratamiento, limitando a lo necesario el plazo de
conservación y su accesibilidad [23].
Esto requiere que los controladores que usan sistemas de inteligencia artificial deter-
minen el propósito de uso del sistema de inteligencia artificial al comienzo de su ca-
pacitación o implementación, y realizar una reevaluación de esto para determinar si el
procesamiento del sistema arroja resultados inesperados. Los datos personales solo se
recopilarán para “fines específicos, explícitos y legítimos” y no se utilizarán de una mane-
ra que sea incompatible con el propósito original.
Precisión
El principio de precisión requiere que los datos personales sean precisos y estén actuali-
zados. Este principio es de especial importancia para sistemas totalmente automatizados,
donde la salida podría tener un impacto significativo en individuos con poca supervisión
humana.
Alimentar un sistema de IA con datos inexactos podría disminuir la calidad del resulta-
do, y este principio requiere que los usuarios de IA adopten un enfoque particularmente
vigilante para garantizar que el conjunto de datos no se diluye con datos de mala calidad.
Procesamiento seguro
El principio de que los datos personales deben procesarse de forma segura requiere que
quienes los desarrollan o usan IA considerarán los problemas de riesgo de seguridad
particulares que dicho uso puede generar y lo mitigarán.
Además del posible acceso no autorizado a datos personales, la falta de seguridad adecua-
da puede conducir a que terceros no autorizados accedan y manipulen el algoritmo para
cambiar su lógica y resultados. Esto puede tener serias consecuencias para las personas
donde, por ejemplo, se toma una decisión con respecto a ellos por o con la ayuda de este
algoritmo.
37
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Accountability
La rendición de cuentas o accountability requiere que aquellos que procesan datos perso-
nales establezcan una organización integral, políticas y procedimientos para garantizar
que los datos personales se procesen de conformidad las leyes de protección de datos de
la jurisprudencia en la que se esté operando. Y puedan demostrar esas políticas y proce-
dimientos.
En el contexto de la IA, las partes que normalmente actuarían como procesadores, como
los desarrolladores de software o los diseñadores de sistemas, pueden actuar como co-
controladores (donde cada parte decide los propósitos y medios de su propio procesa-
miento de los datos personales utilizados por la IA) o como controladores conjuntos (por
ejemplo, cuando las partes desarrollan juntas un sistema de IA).
• liderazgo y supervisión
• evaluación de riesgos
• transparencia
• capacitación y conciencia
• control y monitorización
• respuesta y ejecución.
Los datos procesados, la forma en que se diseñan las aplicaciones y el alcance de la in-
tervención humana pueden afectar a los derechos, a la libre expresión, la protección de
los datos personales, la privacidad y las libertades políticas. Esta tecnología, aumenta las
posibilidades de rastrear y analizar los hábitos diarios de la gente. Por ejemplo, existe el
riesgo potencial de que la IA sea utilizada; violando las normas sobre protección de datos
de la UE y otras normativas, por las autoridades estatales u otras entidades para la vigi-
lancia masiva, y por los empleadores para observar el comportamiento de sus empleados.
38
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Al analizar grandes cantidades de datos e identificar los vínculos entre ellos, la IA tam-
bién puede utilizarse para rastrear y desanonimizar datos sobre personas, creando nuevos
riesgos de protección de los datos personales, incluso con respecto a conjuntos de datos
que no incluyen en sí mismos datos personales.
Cumplir con las diferentes normativas referentes a la protección de datos, puede suponer
un problema añadido al desarrollo de la inteligencia artificial. Estos modelos requieren el
uso masivo de datos para su entramiento y puesta en producción y las nuevas normativas
que se están generando están limitando la capacidad de las empresas para conseguir,
compartir y emplear estos datos.
Al mismo tiempo si este tipo de regulaciones no existieran, el uso masivo de datos perso-
nales comprometería la privacidad de los ciudadanos. Para mantener un equilibrio entre
la protección social y la evolución tecnológica de la inteligencia artificial, estas leyes pre-
sentan un lenguaje vago que abre la puerta a diferentes interpretaciones de las leyes. Esta
flexibilidad en los textos legales ha sido duramente criticada por asociaciones que velan
por la privacidad de los datos como European Digital Rigths, la cual ha publicado un in-
forme en el cual establece la necesidad de revisión de una serie de definiciones dentro de
la Ley General de Protección de datos de la Unión Europea.
https://edri.org/files/1012EDRi_full_position.pdf
Uno de los puntos más controversiales de las leyes de protección de datos pasa por la
transparencia de los mismos. Como hemos visto las principales las leyes de protección de
datos establecen que las personas deben de ser capaces de acceder y conocer el uso que
se está realizando de sus datos personales. Esta explicación debe ser clara y legible por
el público general lo cual se puede ver dificultado por el uso de sistemas de inteligencia
artificial para el procesado de los datos.
Esto está suponiendo un importante desafío ya que muchos de estos modelos actualmen-
te trabajan como cajas negras donde incluso los ingenieros encargados del desarrollo de
estos sistemas son capaces de determinar cuál es el flujo de decisión que está siguiendo
el modelo.
39
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Para poder abordar la explicación de los modelos de inteligencia artificial debemos abor-
dar dos conceptos principales: la explicabilidad y la interpretabilidad. Aunque estos tér-
minos se encuentran estrechamente ligados entre si, la literatura establece una diferen-
ciación entre ellos.
• Explicar la intención con la que el sistema afecta a las partes involucradas. [25]
Por tanto, el concepto de explicabilidad se puede entender como un concepto más amplio,
con un objetivo más ambicioso que el de la interpretabilidad.
40
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Una variable que debemos tener en cuenta cuando planteamos la interpretabilidad de los
modelos de inteligencia artificial, es que existe una relación inversamente proporcional
entre la capacidad predictiva de un modelo y la interpretabilidad del mismo. La imple-
mentación de algoritmos de alto rendimiento con un alto grado de interpretabilidad es
un importante desafío del desarrollo de inteligencia artificial. A medida que más y más
empresas comienzan a utilizar técnicas de ciencia de datos para impulsar el crecimiento,
y estas dependen cada vez más del uso de dichas técnicas, comprender el equilibrio entre
precisión e interpretabilidad se vuelve aún más relevante para el éxito analítico.
41
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Este tipo de técnicas se conocen como técnicas post-hoc. Una vez que se ha determi-
nado que existen diferencias entre las medias, las pruebas de rango post hoc permiten
determinar qué medias difieren. La prueba de rango post hoc identifica subconjuntos
homogéneos de medias que no se diferencian entre sí.
Los modelos simples son aquellos modelos que son muy fácilmente interpretables/expli-
cables y de baja precisión; sin embargo, los modelos complejos son de naturaleza de caja
negra, casi imposibles de explicar y con una precisión muy alta.
Los modelos lineales son fáciles de interpretar, por ejemplo: con la ayuda de la magnitud
y el signo de los pesos de las características en la ecuación del modelo, nos da la idea del
impacto de las características en la salida. En el caso de los árboles de decisión, podemos
movernos desde el nodo raíz hacia los nodos hoja a través de las divisiones (según Gini,
ganancia de información o entropía) y analizar el árbol para comprender/interpretar el
modelo fácilmente. Aunque estos modelos son altamente interpretables, estos modelos
tienen varios problemas: los modelos lineales no son precisos porque no pueden explicar
el comportamiento no lineal de las características, mientras que los árboles de decisión
también son inexactos y tienen el problema de sobreajuste.
Los bosques aleatorios tienen una alta precisión y una varianza / sobreajuste muy bajo
en comparación con los árboles de decisión, pero los bosques aleatorios tienen una gran
cantidad de árboles que no se pueden interpretar en cantidades tan grandes. Por lo tanto,
la interpretabilidad en tales modelos es un gran problema.
42
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
43
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• Las explicaciones se seleccionan: Las personas no esperan conocer todas las po-
sibles causas de un evento y la explicación asociada a ellas. Estamos acostum-
brados a seleccionar una o dos causas todas las posibles como la explicación del
evento. Por ejemplo, una buena predicción puede realizarse en base a distintas
variables, pero para hacer que un modelo sea explicable solo necesitamos saber el
origen de la predicción en base a una o dos de ellas.
44
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• Las explicaciones son sociales: Estas forman parte de la interacción entre el en-
cargado de llevar a cabo la explicación y el receptor de la misma. El contexto social
determina el contenido y la naturaleza de las explicaciones. A la hora de aportar ex-
plicaciones sobre un modelo de inteligencia artificial es necesario prestar atención
al entorno social de su aplicación de aprendizaje automático y al público objetivo.
Obtener la parte social del modelo de aprendizaje automático correcta depende
completamente de su aplicación específica. Esta parte del proceso suele contar
con el apoyo de expertos del campo de humanidades que puedan ayudar a sentar
el contexto de la situación.
• Las explicaciones son veraces: Las buenas explicaciones demuestran ser verda-
deras en la realidad (es decir, en otras situaciones). La explicación debe predecir el
evento con la mayor veracidad posible, lo que en el aprendizaje automático a veces
se denomina fidelidad.
• Las explicaciones son consistentes con las creencias previas de las personas
que reciben la explicación: Los humanos tienden a ignorar la información que
es inconsistente con sus creencias anteriores. Este efecto se denomina sesgo de
confirmación. Las explicaciones no se salvan de este tipo de sesgos. Las personas
tenderán a devaluar o ignorar las explicaciones que no concuerden con sus creen-
cias. El conjunto de creencias varía de una persona a otra, pero también existen
creencias previas basadas en grupos, como las visiones políticas del mundo. Las
buenas explicaciones son consistentes con las creencias previas. Esto es difícil de
integrar en el aprendizaje automático y probablemente comprometería drástica-
mente el rendimiento predictivo.
• Las explicaciones son generales y probables: Una causa que puede explicar mu-
chos eventos es muy general y podría considerarse una buena explicación. Hay
que tener en cuenta que esto contradice la afirmación de que las causas anorma-
les son buenas explicaciones. Las causas anormales son, por definición, raras en
el escenario dado. En ausencia de un evento anormal, una explicación general se
considera una buena explicación. La generalidad se puede medir fácilmente por el
soporte de la función, que es el número de instancias a las que se aplica la explica-
ción dividida por el número total de instancias.
45
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
En primer lugar, estas técnicas se clasifican en función de cómo se relacionan con el mo-
delo y pueden ser:
• Específicas del modelo o para un tipo concreto de algoritmo, que genera las expli-
caciones en función de datos concretos de su desarrollo.
De hecho, también se pueden clasificar según qué salida o información nos dan en:
• Técnicas de explicación globales, que nos dan explicaciones del modelo en gene-
ral.
Y ese output también presenta la información de diferentes formas: explicación sobre las
variables relevantes, cómo han contribuido las variables a un valor concreto de predic-
ción, explicaciones basadas en reglas, explicaciones visuales (taxonomía), etc.
La siguiente tabla ofrece una descripción general de los tipos de modelos interpretables
y sus propiedades. Un modelo es lineal si la asociación entre las características y el obje-
tivo se modela de forma lineal. Un modelo con restricciones de monotonicidad garantiza
que la relación entre una característica y el resultado objetivo siempre va en la misma
dirección en todo el rango de la característica: un aumento en el valor de la característica
siempre conduce a un aumento o siempre a una disminución en el resultado objetivo.
46
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
47
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
La capa inferior es el Mundo. Esto podría ser literalmente la naturaleza misma, como la
biología del cuerpo humano y cómo reacciona a la medicación, pero también cosas más
abstractas como el mercado inmobiliario. La capa Mundo contiene todo lo que se puede
observar y es de interés. En última instancia, queremos aprender algo sobre el mundo e
interactuar con él.
La segunda capa es la capa de datos. Tenemos que digitalizar el mundo para que sea pro-
cesable para las computadoras y también para almacenar información. La capa de datos
contiene cualquier cosa, desde imágenes, textos, datos tabulares, etc.
Encima de la capa del modelo de caja negra se encuentra la capa de métodos de interpre-
tación, que nos ayuda a lidiar con la opacidad de los modelos de aprendizaje automático.
¿Cuáles fueron las características más importantes para un diagnóstico en particular?
¿Por qué una transacción financiera fue clasificada como fraude?
La última capa está ocupada por una persona. Este es el último eslabón de la cadena y el
consumidor de las explicaciones.
Esta abstracción de múltiples capas también ayuda a comprender las diferencias en los
enfoques entre los estadísticos y los profesionales del aprendizaje automático. Los es-
tadísticos se ocupan de la capa de datos, como la planificación de ensayos clínicos o el
diseño de encuestas. Omiten la capa Modelo de caja negra y van directamente a la capa
Métodos de interpretación. Los especialistas en aprendizaje automático también se ocu-
pan de la capa de datos, como la recopilación de muestras etiquetadas de datos. Luego
entrenan un modelo de aprendizaje automático de caja negra. La capa Métodos de inter-
pretación se omite y los humanos se ocupan directamente de las predicciones del modelo
de caja negra.
48
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Figure 9: El panorama general del aprendizaje automático explicable. El mundo real atra-
viesa muchas capas antes de llegar al ser humano en forma de explicaciones. [30]
49
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Los modelos sustitutos locales son modelos interpretables que se utilizan para explicar
las predicciones individuales de los modelos de aprendizaje automático de caja negra. Las
explicaciones locales interpretables agnósticas del modelo (LIME), es un artículo [31] en
el que los autores proponen una implementación concreta de modelos sustitutos locales.
Los modelos sustitutos se entrenan para aproximarse a las predicciones del modelo de
caja negra subyacente. En lugar de entrenar un modelo sustituto global, LIME se enfoca
en entrenar modelos sustitutos locales para explicar predicciones individuales.
LIME es independiente del modelo, lo que significa que se puede aplicar a cualquier mo-
delo de aprendizaje automático. La técnica intenta comprender el modelo perturbando
la entrada de muestras de datos y comprendiendo cómo cambian las predicciones. LIME
proporciona interpretabilidad del modelo local. Estee modifica una sola muestra de datos
ajustando los valores de las características y observa el impacto resultante en la salida.
A menudo, esto también está relacionado con lo que les interesa a los humanos cuando
observan el resultado de un modelo. La pregunta más común es: ¿por qué se hizo esta
predicción o qué variables causaron la predicción?
Figure 10: LIME explica las predicciones del modelo a nivel de muestra de datos. Permite a los
usuarios finales interpretar estas predicciones y tomar acciones basadas en ellas.[32]
Otras técnicas de interpretación del modelo solo responden la pregunta anterior desde
la perspectiva de todo el conjunto de datos. La importancia de las características explica
en un nivel de conjunto de datos qué características son importantes. Le permite verificar
hipótesis y si el modelo se ajusta demasiado al ruido, pero es difícil diagnosticar predic-
ciones específicas del modelo.
Un requisito clave para LIME es trabajar con una representación interpretable de la entra-
da, que sea comprensible para los humanos. Ejemplos de representaciones interpretables
son, por ejemplo, un vector BoW para NLP, o una imagen para visión artificial. Las incrus-
taciones densas, por otro lado, no son interpretables, y la aplicación de LIME probable-
mente no mejorará la interpretabilidad.
50
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Aunque aparentemente LIME puede ser un método sencillo para abordar la interpretabi-
lidad de modelos de inteligencia artificial, existen varios factores que debemos tener en
cuenta a la hora de implementar este sistema.
En segundo lugar, el tipo de modificaciones que deben realizarse en los datos para obte-
ner las explicaciones adecuadas suelen ser específicas del caso de uso. Los autores dieron
el siguiente ejemplo en su artículo:
“Por ejemplo, un modelo que predice que las imágenes en tonos sepia son retro no puede
explicarse por la presencia o ausencia de superpíxeles.”
LIME es una gran herramienta para explicar qué están haciendo los clasificadores (o mo-
delos) de aprendizaje automático. Es independiente del modelo, aprovecha ideas simples
y comprensibles y no requiere mucho esfuerzo para ejecutarse. Como siempre, incluso
cuando se usa LIME, sigue siendo importante interpretar correctamente la salida.
51
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Shapely Values
El enfoque de valor de Shapley intenta explicar por qué un modelo de ML genera los re-
sultados en base a una entrada.
Los valores de Shapley son un concepto tomado de la literatura de teoría de juegos coo-
perativos y se remontan a la década de 1950. En su forma original, los valores de Shapley
se usaban para atribuir de manera justa la contribución de un jugador al resultado final
de un juego.
Esto valores pueden ser calculados modificando los valores de entrada del modelo y ob-
servando como los cambios introducidos en las variables de entrada afectan a
las predicciones finales del modelo. El valor de Shapley de una característica determinada
se calcula luego como la contribución marginal promedio a la puntuación general del
modelo. Los valores de Shapley a menudo se calculan con respecto a un grupo de compa-
ración o antecedentes que sirve como “línea de base” para la explicación.
Figure 12: Ejemplo de como las contribuciones idividuales afectan a la salida del modelo [33]
52
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
El valor de Shapley es especial porque es el único valor que satisface un conjunto de po-
derosos axiomas a la hora de explicar la funcionalidad de un modelo:
Un problema más conceptual es que el valor de Shapley puede depender en gran medida
de cómo actúa el modelo en entradas poco realistas. Por ejemplo, un modelo de precio de
vivienda que toma en cuenta la latitud y la longitud como características separadas puede
calcular el precio sobre bienes inmuebles en medio de un lago Se ha demostrado que los
atacantes pueden explotar este problema de “entrada poco realista” en el sentido de que
se pueden construir modelos que funcionan de manera casi idéntica a un modelo original,
pero cuyos valores de Shapley son casi aleatorios.
53
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
El gráfico de dependencias parciales o PDP por sus siglas en inglés (Partial Dependence
Plot) muestra el efecto marginal que tienen una o dos características en el resultado pre-
visto de un modelo de aprendizaje automático. Un gráfico de dependencia parcial puede
mostrar si la relación entre el objetivo y una característica es lineal, monótona o más
compleja. Por ejemplo, cuando se aplica a un modelo de regresión lineal, las gráficas de
dependencia parcial siempre muestran una relación lineal.
Una característica que debemos tener en cuenta antes de aplicar este modelo de interpre-
tabilidad, es que este asume la independencia de las variables de entrada entre si , es decir
no existe una correlación entre ellas.
54
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• En segundo lugar, es posible que PDP no sea preciso para valores que se encuen-
tran en intervalos con muy pocos datos. Por lo tanto, es una buena práctica verifi-
car siempre las distribuciones de características visualizándolas.
Si realizamos una comparación de estos tres métodos podemos encontrar distintas ven-
tajas y desventajas en cada uno de ellos. Como siempre en inteligencia artificial debemos
analizar el caso específico al que nos enfrentamos para elegir de manera correcta el algo-
ritmo que mejor se ajusta a nuestras necesidades.
55
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
La inteligencia artificial permite que las máquinas o los dispositivos aprendan de su pro-
pia experiencia, se reconfiguren ante nuevos escenarios y luego desarrollen tareas de ma-
nera similar a como lo hacemos nosotros. Para que la inteligencia artificial sea eficiente
se necesitan dos materias primas: algoritmos y datos. El algoritmo da las instrucciones
para la máquina y los datos permiten que esa máquina aprenda a usar esas instruccio-
nes y mejore su uso. Estos dos elementos que pueden parecer independientes no lo son
realmente. Las personas encargadas del desarrollo de los algoritmos somos quienes pro-
porcionamos tanto los datos como el mecanismo de programación. Cuando llevamos a
cabo esta tarea, introducimos muchas veces de manera inconsciente nuestras opiniones,
prejuicios y sesgos.
Uno de los ejemplos más sonados de sesgos dentro de la inteligencia artificial correspon-
de al algoritmo de Twitter. Este contaba con un algoritmo que favorecía la promoción
dentro del timeline las imágenes de personas blancas, delgadas y jóvenes sobre imágenes
de personas que no cumplían con estas características. Este algoritmo iba más allá y en el
caso de que en una misma imagen apareciera una persona blanca y una negra, el sistema
de recorte automático, mostraba en la miniatura de la imagen siempre a la persona blanca.
Este sesgo algorítmico fue descubierto por los usuarios que se dedicaron a ponerlo a
prueba con distintas imágenes de personas blancas y negras, para detectar que decisión
tomaba el sistema. Uno de los casos más virales fue la comparación de imagen entre
Mitch McConnell y Barack Obama.
Se introdujo en un mismo tuit las siguientes imágenes adjuntas, para comprobar que pre-
sentaba como miniatura el sistema de recortes automático.
56
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
En este caso se detectó que el algoritmo siempre mostraba a Mitch McConnell, como
imagen a mostrar en la versión reducida de la imagen que aparece en las aplicaciones mó-
viles y web de Twitter. Al pinchar sobre la imagen se podía ver las imágenes completas.
La foto completa es una tira alargada en la que cada uno de los políticos está en un extre-
mo. Twitter no selecciona el centro de la imagen, ya que se mostraría un cuadrado blanco,
sino que busca el área que le parezca más significativa.
57
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
En las comparaciones de hombres y mujeres, hubo una diferencia del 8% a favor de las
mujeres. El algoritmo también mostró un sesgo general del 4% orientado a mostrar imá-
genes de personas blancas en lugar de personas negras. En respuesta, la red social dijo
que eliminaría la función y la reemplazaría con nuevas herramientas que permitirían a
los usuarios ver una “vista previa real” de las imágenes agregadas a los tweets, sin ningún
tipo de sesgo por raza o género.
Los investigadores también evaluaron si los recortes favorecían los cuerpos de las muje-
res antes que las cabezas, lo que refleja lo que se conoce como la “mirada masculina”, pero
no se identificó un sesgo en este aspecto.
58
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Este no ha sido el único caso de sesgos algoritmos que han sido descubiertos por los
usuarios finales de los sistemas. En 2018 el departamento de recursos humanos de Ama-
zon tuvo que descartar una herramienta de selección de personal, ya que los resultados
que ofrecía presentaban sesgos contra las mujeres, es decir, que por ejemplo, en recluta-
miento de candidatos para trabajos de desarrollo de software y en otras áreas técnicas, el
sistema no estaba aplicando principios de igualdad y meritocracia, sino que producía una
importante discriminación contra las mujeres.
El hecho de que algo así pueda ocurrir en una gran multinacional como Amazon, líder en
el campo de la automatización y el uso de inteligencia artificila, puede parecer inexplica-
ble, pero no lo es. El motivo detrás del sesgo contra el sexo femenino está en el perfil de
trabajadores que se han incorporado a la empresa en los últimos 10 años. La inteligencia
artificial emplea los datos que tiene como referencia para entrenar modelos y encontrar
similitudes positivas. Si el sistema de captación de empleados de la compañía en los úl-
timos años generaba mayoritariamente contrataciones masculinas, y esos datos son los
que se han empleado para el entrenamiento del modelo sin un análisis previo de los datos
y una corrección de los sesgos, el software interpreta que lo corriente es lo positivo sin
generar la igualdad de oportunidades que se busca.
Debemos tener en cuenta que las principales empresas tecnológicas de EE. UU. aún tie-
nen que cerrar la brecha de género en la contratación, una disparidad más pronunciada
entre el personal técnico, como los desarrolladores de software, donde los hombres supe-
ran con creces a las mujeres. El motor de reclutamiento experimental de Amazon siguió el
mismo patrón, aprendiendo a penalizar los currículums que incluían la palabra “mujeres”
hasta que la empresa descubrió el problema.
59
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Figure 18: Desglose de puestos ocupaddos en empresas tecnologicas por género [36]
Otras empresas siguen adelante con proyectos de inteligencia artificial en este ámbito,
lo que pone de relieve el deseo de las empresas para aprovechar esta tecnología en la
contratación.
LinkedIn, de Microsoft Corp, la red profesional más grande del mundo ha ido más allá.
Ofrece a los empresarios clasificaciones algorítmicas de candidatos en función de cómo
encajan con las ofertas de trabajo en su plataforma.
60
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Sin embargo, John Jersin, vicepresidente de LinkedIn Talent Solutions, dice que el servi-
cio no reemplaza a los contratadores tradicionales. “Ciertamente, no confiaría en ningún
sistema de inteligencia artificial hoy para tomar una decisión de contratación por sí solo”,
dijo. “La tecnología aún no está lista”.
Si no se hace nada para frenarlo, la inteligencia artificial puede reproducir y amplificar los
sesgos humanos.
Otro ejemplo ocurre con los traductores automáticos como Google Translate, donde está
comprobado que el sistemas asigna un género específico al traducir palabras que son
neutras en un idioma y no en otro, perpetuando así estereotipos de género como la asig-
nación del género femenino a la palabra «nurse» y masculino a «doctor», palabras que en
inglés valen para ambos géneros. Es posible que en los textos utilizados para entrenar
el modelo la probabilidad de encontrar la palabra «nurse» traducida como «enfermera»
ciertamente fuera más alta, y por tanto el modelo minimiza las posibilidades de error al
asignar ese género en situaciones de incerteza.
Este tipo de sesgos afectan a todos los sectores en los que se encuentra implementada la
inteligencia artificial.
Cuando identificamos el origen de los sesgos en estos modelos en la base de datos que se
está utilizando, podemos pensar en soluciones para mitigar este, balanceándolos de algu-
na manera, para evitar que los modelos resulten discriminatorios o injustos, dependiendo
de la situación con la que estemos trabajando.
61
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Otra opción podría ser inducir al sistema a que utilice representaciones «justas» de los
datos, en el sentido de que no estén asociadas a las características que son fuente de
discriminación. O, directamente, obligarlo a ignorar estos atributos protegidos, como
el género u otras características demográficas, al momento de tomar una decisión. Sin
embargo, debemos ser cuidadosos al diseñar estas soluciones: aunque ocultemos ciertos
atributos a un sistema, como el género o el grupo étnico al que pertenece una persona, la
correlación entre esos atributos y otras variables seguirá existiendo. Recordemos que si
hay algo que los modelos de aprendizaje automático hacen bien es encontrar patrones y
también correlaciones.
Además de los datos utilizados para entrenar los algoritmos también debeos tener en
cuenta otras variables que pueden estar introduciendo sesgos dentro de nuestros algorit-
mos de inteligencia artificial. El principal origen de sesgos son los datos que utilizamos
para realizar los entrenamientos, seguido del sesgo introducido por los humanos en las
distintas fases del proceso de creación de un modelo de inteligencia artificial.
62
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Los datos representan por lo general hechos y decisiones pasadas, por lo que si dichas
decisiones se tomaron dentro de una sociedad con sesgos, los datos contendrán esos mis-
mos sesgos, reforzándolos al utilizarlos para la creación de modelos. Dentro de este tipo
de sesgos debidos a los datos podemos encontrar tres tipos o motivos principales:
• Recogida de los datos: Sesgo de muestreo. Los datos suelen ser una muestra de
la totalidad de la información, por lo que pueden no ser representativos de la rea-
lidad, penalizando en algunos casos a algunos conjuntos ya sea por exceso o por
defecto de representación.
Para tratar de evitar las variables sensibles pueden ponerse en práctica distintos criterios
que nos permitan detectar si estamos discriminando a un colectivo. Dentro de estas mé-
tricas podemos definir distintos criterios:
63
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• Criterios de suficiencia, las premisas deben aportar apoyo suficiente para llegar
a la conclusión. El criterio de suficiencia se cumple cuando la variable objetivo y la
variable sensible son condicionalmente independientes dada la estimación.
Para poder cumplir con estos criterios podemos aplicar una serie de técnicas correctivas
en los datos, que se pueden dividir en diferentes categorías en función del punto del de-
sarrollo del modelo en el que las introduzcamos
Sesgo algorítmico
Los algoritmos solo son tan buenos como sus desarrolladores. El aprendizaje automático
tiende a amplificar el sesgo sexista y racista del mundo real. Lo vemos, por ejemplo, en el
software de reconocimiento de imágenes que no identifica correctamente las caras que
no son blancas. De forma parecida, las muestras de datos sesgadas pueden enseñar a las
máquinas que las mujeres compran y cocinan, mientras que los hombres trabajan en ofi-
cinas y fábricas. Este tipo de problema suele ocurrir cuando los científicos que entrenan
los datos introducen involuntariamente sus propios prejuicios en el trabajo que realizan.
Hemos visto que el principal origen de los sesgos se encuentra en los datos que se uti-
lizan para entrenar los modelos, sin embargo también existe el sesgo algorítmico. Este
ocurre sucede cuando un sistema de aprendizaje automático refleja los valores de las per-
sonas que lo desarrollaron o entrenaron.
64
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Algunos de los puntos de desarrollo en los que podemos introducir sesgos de manera
inconsciente:
• Preparación de los datos: Aunque este punto puede ser analizado también desde
el punto de vista de los sesgos provenientes de los datos, el preprocesado que se
lleva a cabo de los mismos conlleva una importante parte de trabajo manual. En
esta etapa es posible introducir sesgos individuales del desarrollador encargado
de lleva a cabo esta tarea. En el caso de modelar la solvencia crediticia, un “atribu-
to” podría ser la edad del cliente, los ingresos o la cantidad de préstamos pagados.
En el caso de la herramienta de reclutamiento de Amazon, un “atributo” podría ser
el género, el nivel de educación o los años de experiencia de los candidatos. Esto
es lo que la gente suele denominar como el “arte” del aprendizaje profundo: elegir
qué atributos considerar o ignorar puede influir significativamente en la precisión
de la predicción de un modelo. Pero, aunque resulta fácil medir su impacto en la
precisión, medir sus sesgos es un proceso bastante complicado.
65
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
66
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Existen multitud de orígenes para los sesgos que podemos encontrar en la inteligencia
artificial, y es deber de todas las personas involucradas en esta tecnología, ya sea como
desarrolladores o con perfiles menos técnicos, tener en cuenta estas variables y tratar de
minimizarlas en medida de lo posible.
Evitar los sesgos no es una tarea sencilla, pero se capaces de identificarlos es el primer
paso para hacerles frente. Existen una serie de acciones que podemos llevar a cabo para
minimizar la presencia de sesgos en nuestros algoritmos.
• Obtener más datos: si los datos que hay no son suficientes o no están representan-
do a un determinado grupo de la sociedad, hay que encontrar formas de obtener
datos adicionales o generar más datos, con la mayor precisión posible. Los datos
que seleccionemos serán el factor principal en los resultados del algoritmo.
• Analizar los resultados y contrastarlo con los datos de entrada. Realizar este pro-
ceso de manera individual para cada categoría /grupo. La precisión o error del
algoritmo puede mostrar sesgos en el mismo.
67
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Para facilitar este proceso actualmente existen en el mercado una serie de herramientas
desarrollas con el objetivo de detectar posibles sesgos y hacer que los modelos desarro-
llados de inteligencia artificial sean más justos. Algunas de las mas conocidas han sido
desarrolladas por las grandes empresas tecnológicas, mientras que otras se tratan de he-
rramientas de código abierto que han sido desarrolladas por la comunidad
Este conjunto de herramientas desarrollado por Google tiene como objetivo permitir el
cálculo y la visualización de métricas de equidad para la clasificación binaria y de múl-
tiples clases, lo que ayuda a los equipos a dar un primer paso hacia la identificación de
sesgod. Los indicadores de equidad se pueden usar para generar métricas para informes
de transparencia, como los que se usan para explicar el funcionamiento de un modelo,
para ayudar a los desarrolladores a tomar mejores decisiones sobre cómo implementar
modelos de manera responsable.
Además, los indicadores de equidad están integrados con la herramienta What-If (WIT)
[41]: al hacer clic en una barra en el gráfico de indicadores de equidad, se cargarán esos
puntos de datos específicos en el widget WIT para una mayor inspección, comparación
y análisis contrafáctico. Esto es particularmente útil para grandes conjuntos de datos,
donde los indicadores de equidad se pueden usar para identificar sectores problemáticos
antes de que se use el WIT para un análisis más profundo. [42]
68
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Model Card Toolkit está diseñado para agilizar y automatizar la generación de Model
Cards. Estas tarjetas modelo no son más que documentos de aprendizaje automático que
brindan contexto y transparencia en el rendimiento de un modelo. Integrarlos en la cana-
lización de ML permite compartir metadatos y métricas del modelo con investigadores,
desarrolladores, etc. Si en el desarrollo de aprendizaje automático se utiliza la plataforma
TensorFlow Extended (TFX), es posible automatizar la generación de tarjetas modelo.
Microsoft
69
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• El Jurado Comunitario [46] es una técnica que reúne a diversas partes interesa-
das afectadas por una tecnología. Es una adaptación del jurado ciudadano [47].
Las partes interesadas tienen la oportunidad de aprender de los expertos sobre un
proyecto, deliberar juntos y dar su opinión sobre los casos de uso y el diseño del
producto. Además, esta técnica de innovación responsable permite que los equi-
pos de proyecto colaboren con los investigadores para identificar los valores de las
partes interesadas y comprender las percepciones y preocupaciones de las partes
interesadas afectadas.
Fairlearn
70
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
71
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
IBM
AI Fairness 360
El paquete AI Fairness 360 Python incluye un conjunto completo de métricas para con-
juntos de datos y modelos para probar sesgos, explicaciones para estas métricas y algorit-
mos para mitigar el sesgo en conjuntos de datos y modo.
PricewaterhouseCoopers (PwC)
Responsible AI Diagnostic
72
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Pymetrics
Audit-AI
Audit-IA [51] de Pymetrics es una herramienta para medir y mitigar los efectos de posi-
bles sesgos en los datos de entrenamiento. Las predicciones hechas por el algoritmo ML
están entrenadas para procesos de decisión socialmente sensibles. Según el equipo de
Pymetrics, el objetivo general de esta investigación es encontrar una forma razonable de
pensar sobre cómo hacer que los algoritmos de aprendizaje automático sean más justos.
Audit-ai determina si los grupos son diferentes de acuerdo con un estándar de significan-
cia estadística (dentro de un margen de error estadísticamente diferente) o valor práctico
(si una diferencia es lo suficientemente grande como para tener importancia en un nivel
práctico).
Aequitas
http://www.datasciencepublicpolicy.org/our-work/tools-guides/aequitas/
73
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
XAI
• Seguimiento de la producción
TextAttack
74
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Cuando hablamos de aplicar ética sobre un sistema autónomo, lo concebimos como fi-
losofía moral, en el sentido de una disciplina filosófica que tiene como objeto la calidad
ética de actos, juicios, características, posturas, reglas e instituciones. En ella tiene un
papel destacado la ética normativa, la cual, más allá de describir aquello que los seres
humano estimamos como éticamente correcto, entrega recomendaciones fundamentadas
sobre qué es lo éticamente correcto y erróneo.
Las cuestiones éticas específicas que surgen con los robots dicen relación con dos aspec-
tos: Por un lado, con su creciente inteligencia y autonomía y, por el otro, con su apariencia
exterior y su forma de interactuar con los seres humanos. El primero comprende la ética
de las máquinas cuando estas son capaces de tomar decisiones de forma autónoma y la
implicación en estas decisiones del desarrollo tecnológico. La inteligencia artificial tiene
como objetivo modelar o simular las capacidades cognitivas de los seres humanos, la
«moral artificial» trata de dotar sistemas artificiales de capacidad para tomar decisiones
éticas y de actuar éticamente.
El segundo aspecto se enfoca en la ética para las personas en el trato con las máquinas.
También podemos hablar de la ética de la interacción hombre-máquina. Las personas ten-
demos a humanizar a los sistemas inteligentes. A aquellos robots que, al parecer, actúan
de forma autónoma, inteligente e incluso poseen una apariencia similar a un ser humano o
animal, los percibimos con demasiada facilidad como seres con ideas, motivaciones y sen-
timientos comparables a los de un ser humano. En este marco surgen distintas cuestiones.
75
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
En primer lugar, es necesario definir si la interacción con los sistemas se basa en algún
tipo de engaño o manipulación por el hecho de que nos causan la sensación de tener
características humanas, las cuales en realidad no les corresponden. Por el otro lado, debe-
mos preguntarnos si las máquinas que causan este tipo de reacción en los seres humanos
también nos imponen ciertas limitaciones éticas en el trato con ellas, pese a que no cuen-
tan realmente con tales ideas, motivaciones o sensaciones.
Estos temas abordados desde la ciencia ficción en la actualidad parecen utópicos, pero
estas hipótesis cada vez se plantean más realistas con la evolución de la tecnología, ya que
está cada vez está más humanizada.
Un ejemplo es una nueva versión del asistente virtual de Amazon, Alexa, que tendrá un
modelo pago, con su voz robótica reemplazada por la de celebridades, como la del actor
Morgan Freeman. Esto se hizo para que suene más humana. La inteligencia artificial, las
voces de algunos sistemas operativos y la imitación de rostros humanos están comenzan-
do a manejar algunas de las interacciones básicas entre las personas, como las conversa-
ciones. Aunque las relaciones hombre-máquina aún no han alcanzado el nivel de sofisti-
cación que se muestra en las películas, con los avances en el procesamiento del lenguaje
natural, es posible replicar las relaciones humanas y transferirlas a los dispositivos.
76
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Esta evolución de la tecnología tiene derivas positivas y negativas. Una de las ventajas que
pueden encontrar las personas al vincularse con la tecnología es que con las máquinas es
mucho más fácil relacionarse en comparación con los humanos, que son complejos. Uno
de los factores que se atribuye a este acercamiento a la tecnología es la soledad. Se calcu-
la que en España casi 5 millones de personas viven solas, y en su mayoría tienen más de
65 años. En la mayor parte de los casos esta soledad no es buscada, si no que se trata de
personas mayores cuyos familiares no pueden llevar a cabo un cuidado permanente de los
mismos por lo que algunos terminan por aislarse de otras personas, así que buscan cómo
sustituir las interacciones y la relaciones, ahí es donde entra la tecnología humanizada.
En estos casos la tecnología puede ser un buen aliado para combatir esta soledad. Ya exis-
ten en el mercado empresas especializadas en realizar acompañamientos mediante bots
de lenguaje que permiten hacen un seguimiento de personas mayores o enfermas. Una
de las ventajas de utilizar la tecnología en estos casos es que posibilita llevar a cabo un
seguimiento personalizado y exhaustivo que de tener que realizarse de manera personal
supondría un gasto inasumible en la mayoría de las situaciones.
77
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Sin embargo, esta evolución tecnológica también presenta su parte negativa. Esto está
haciendo que algunas personas se hayan acostumbrado a relacionarse con máquinas y es-
tén perdiendo la capacidad de relacionarse con otras personas. Los seres humanos somos
sociales y necesitamos que alguien nos acompañe. Cada vez más personas sustituyen su
falta de relación humana por máquinas.
Además a esto se suman las tecnologías aplicadas al consumo masivo que reducen drás-
ticamente las interacciones humanas. Algunos ejemplos de estos son:
• Mano de obra robótica: Las fábricas cada vez cuentan con menor personal. Las per-
sonas suponen una serie de problemas añadidos como enfermedades, descansos
derechos laborales, u horas extras que gestionar. El uso de robots evita la necesi-
dad del empleador de pensar en la compensación de los trabajadores, la atención
médica, la Seguridad Social y los beneficios de desempleo.
78
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• Redes sociales: Esta es una interacción social que no es realmente social. Mientras
que Instagram y otras plataformas nos permiten estar al día de la vida de las perso-
nas que seguimos estas simulan ofrecer conexión, la realidad es que una gran parte
de las redes sociales es una simulación de conexiones reales.
Esta reducción de las relaciones interpersonales hace que se generen una serie de efectos
colaterales sobre las personas. Un menor contacto e interacción (real) conducen a una
menor tolerancia y comprensión de las diferencias lo que se traduce en conflictos ya an-
tagonismo. Los medios sociales hacen que se aumenten los sesgos cognitivos. Estamos
expuestos al contenido con el que estamos de acuerdo o aquel con el que están de acuer-
do o les gusta a nuestros amigos, dejando fuera aquel menos afín a la imagen de nuestra
personalidad que ha formado el algoritmo. Esto provoca que en realidad estemos menos
conectados, salvo con aquellos con opiniones afines a la nuestra.
Esto recientemente ha provocado una serie de problemas sociales. Uno de más llamativos
por la gravedad del asunto es el preocupante aumento del movimiento antivacunas a ni-
vel global. Los movimientos anti vacunación son asociaciones de personas que se oponen
a la vacunación por diferentes motivos. Estos grupos emplean Internet como medio de
difusión de sus ideas.Este grupo social, que hasta el momento contaba con un número
muy reducido de seguidores ha aumentado exponencialmente desde la salida al mercado
de las vacunas del Covid-19.
79
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
El auge de los movimientos antivacunas solo es un ejemplo de los efectos que pueden
provocar las redes sociales sobre la población general. Estas se han convertido en una
barra libre de fake news, desinformación y propaganda malintencionada. Los mensajes
de, principalmente, partidos políticos, grupos de presión y medios de comunicación ma-
lintencionados se han convertido en una auténtica amenaza para la vida pública. Cada
vez es más difícil saber qué es verdad y que es mentira o es simplemente información
tergiversada.
Las redes sociales no solo se utilizan como via para difundir información falsa si no como
elemento de estabilización de grandes masas sociales. Varios ejemplos a partir de 2009
han demostrado el poder político, económico y social que la red ejerce sobre nuestra so-
ciedad. La famosa Revolución Twitter: se habla de ella para las manifestaciones que afec-
taron a Irán, poco después la censura de China a Google, la primavera árabe, la difusión
de información electoral para las elecciones de EE.UU. o el Brexit, así como acontecimien-
tos más recientes que han afectado a la escena internacional como la difusión de informa-
ción en Rusia sobre la guerra de Ucrania.
Las redes sociales y la inteligencia artificial tienen un impacto directo sobre nuestras so-
ciedades y nuestras vidas. Existe una serie de casos particulares en los que las decisiones
tomadas por la inteligencia artificial tienen un impacto directo sobre la vida de las per-
sonas y este debe ser medido con cautela antes de poner en marcha cualquiera de estos
sistemas frente al público general. Algunos de estos ejemplos son:
El desarrollo de esta tecnología cuenta con importantes retos técnicos desde el punto
de vista de madurez tecnológica. El Internet de las Cosas (IoT), la tecnología conecta-
da, y la Inteligencia artificial han logrado grandes avances, los cuales han permitido que
contemos con algunos modelos de estos vehículos en el mercado. IoT proporcionará a
los vehículos datos en tiempo real para detectar problemas operativos y comprender las
condiciones ambientales.
80
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
En segundo lugar, el mayor desafío al que se enfrentan este tipo de vehículos es la toma
de decisiones razonables por parte de los vehículos autónomos. Este reto involucra, no
solo a la tecnología, sino a ámbitos como la filosofía y la ética, o la regulación legal.
Si los vehículos son completamente autónomos para circular y frenar también lo tendrán
que ser para tomar decisiones complicadas en una fracción de segundo, como decidir
chocar con un niño o herir a los propios ocupantes para salvarle.
Estas inquietudes éticas reales tienen que ser abordadas por profesionales en la materia,
como son los filósofos, por lo que no será poco común que las empresas tecnológicas
comiencen a contar con estos profesionales para que colaboren directamente con los in-
genieros en el desarrollo de los algoritmos que definirán el comportamiento de los robots.
Además, estas valoraciones éticas a la hora de programar tendrán que hacerse de manera
diferenciadas según la cultura que tengan los usuarios de estos futuros robots. Los juicios
morales que emitimos están muy influenciados por la cultura a la que pertenecemos. Y
así lo ha demostrado “Moral Machine”, un juego online desarrollado por el Massachusetts
Institut Technology (MIT).
Figure 28: Ejemplo de pregunta de la máquina moral desarrollada por el MIT [61]
81
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
https://www.moralmachine.net/hl/es
Este juego nos pone en la tesitura de decidir ante escenarios hipotéticos cual seria la
decisión más adecuada para un coche autónomo. ¿A quiénes debería salvar y sacrificar
estos autos? A un grupo de peatones que cruzan la calle, a los pasajeros dentro del auto,
a un peatón en la banqueta o más difícil aún, a niños o ancianos. ¿Y cómo cambiaría tu
perspectiva si fueran tus familiares?
Este dilema ha representado, en los últimos años, uno de los mayores desafíos en materia
de seguridad de estos autos.
El desarrollo de los coches autónomos cuenta con otra dificultad técnica añadida debido
a la alta complejidad que presenta el problema de conseguir un vehículo capaz de circular
de una manera totalmente autónoma. La programación basada en reglas implícitas es de-
masiado simple para poder desarrollar estos sistemas, por lo que se programan haciendo
uso de modelos de aprendizaje por refuerzo incluyendo mecanismos de introducción de
datos masivos que reciben tanto de sus propios componentes sensoriales como de las
bases de datos que la empresa desarrolladora les proporciona. El proceso de aprendizaje
es vitalicio, es decir, el software va a seguir recibiendo datos y actualizando sus compo-
nentes algorítmicos de manera permanente desde su primera puesta en marcha.
82
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Uno de los principales desafíos de este tipo de mecanismos es corroborar de manera in-
equívoca de qué manera el sistema está aprendiendo, ya que dentro del aprendizaje por
refuerzo se incluyen modelos de Deep learning cuya explicabilidad puede llegar a ser
muy compleja.
La tecnología de estos vehículos tiene una implantación limitada, ya que esta puede no
ser viable bajo ciertos contextos concretos. Por ejemplo, implantar esta tecnología en paí-
ses en vías de desarrollo como la India o países limítrofes similares, donde las normativas
de tráfico son bastante más laxas respecto a las que podemos encontrar en los países
donde se desarrolla esta tecnología. La implantación de este tipo de vehículos sin realizar
una correcta adaptación a las circunstancias del entorno, como puede ser la presencia de
grandes animales en las vías, carreteras en mal estado y mal estado de los vehículos que
circulan, puede hacer que la presencia de coches autónomos se convierta en algo real-
mente peligroso para la vida humana.
83
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Un factor que se debe tener en cuenta también dentro del ámbito de la salud es el origen
de los datos que se emplean para entrenar a los algoritmos destinados al diagnostico en la
actualidad. La infrarrepresentación de determinados grupos sociales por motivos de raza,
sexo o bagaje hace que estos modelos puedan presentar una precisión inferior a la que se
observó en su entrenamiento cuando se emplean este tipo de datos.
84
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Para poder adoptar una inteligencia artificial ética en el sector sanitaria esta debe ser res-
petuosa, transparente, segura y justa. Para ello debe de cumplir una serie pilares transver-
sales. Desde DigitalES [64], la Asociación Española para la Digitalización, la cual reúne a
las principales empresas del sector de la transformación digital, han emitido una serie de
recomendaciones para garantizar la ética dentro del sector:
Transparencia y Explicabilidad
Los sistemas de inteligencia artificial que se empleen en el ámbito sanitario deben ser
sometidos a estrictas regulaciones de transparencia y explicabilidad. Los pacientes tie-
nen derecho a saber en qué momento están interactuando con un sistema de inteligencia
artificial y en qué medida ha intervenido este en su diagnóstico. Además es necesario
establecer unos criterios mínimos de explicabilidad que deban ofrecer los sistemas de
inteligencia artificial a los profesionales sanitarios. Estos deben garantizar la trazabilidad
para que las decisiones tomadas por sistemas de IA puedan ser auditadas, evaluadas y
explicadas por las personas responsables.
Para facilitar esta labor será necesario incorporar una base de formación tecnológica a los
profesionales de la salud que vaya a estar en contacto con estos sistemas.
Privacidad
Para facilitar esta labor es necesario torgar la formación y conocimientos necesarios a las
empresas/centros sanitarios para asegurar el cumplimiento de la normativa en protección
datos, evitando confusiones o actuaciones ilícitas fuera del margen legal.
85
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Los sets de datos disponibles para llevar a cabo el entrenamiento de modelos de inteli-
gencia artificial destinados a la medicina son limitados y la mayoría de ellos correspon-
den con datos recogidos en los entornos hospitalarios donde se puede llevar a cabo el
desarrollo de esta tecnología. Esto hace que el muestreo de datos disponible se encuentre
sesgado y solo sea representativo de las poblaciones con capacidad para acudir a ese tipo
de centros. Es necesario aplicar acciones de formación y explicabilidad dirigidas al perso-
nal sanitario sobre los posibles sesgos de información que manejan.
Robustez
Es necesario Definir unos niveles mínimos de fiabilidad y precisión para cada tipo de
aplicación de los sistemas de IA que se deban cumplir antes de ponerlos en producción,
en función de la sensibilidad del caso de uso.
No todos los modelos algorítmicos ofrecen los mismos resultados en los distintos casos
de uso. El expertise en el ámbito health (y la experiencia previa de otras investigaciones
y organizaciones) será esencial para saber escoger entre Machine Learning y Deep Lear-
ning
Los sistemas de inteligencia artificial deben utilizarse de manera adecuada y por personal
debidamente capacitado. Estos no pueden operar de manera autónoma y deben existir
mecanismos de control, medición de impacto y reparación para las personas que puedan
verse afectadas negativamente por decisiones basadas en algoritmos.
86
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Regulación y responsabilidad
Se debe trabajar en un marco que defina sin ambigüedades los límites de responsabilidad
que tendrían los desarrolladores de sistemas de IA para el ámbito sanitario. También, que
establezca mecanismos de traspaso de la responsabilidad a los profesionales sanitarios
en casos donde deban ser estos profesionales quienes prevalezcan sobre los sistemas de
IA, por el potencial daño que podría ocasionar a las personas un mal desempeño de estos
últimos.
La Inteligencia Artificial debe generar confianza en la población, que entienda sus benefi-
cios y anime al paciente a colaborar en la mejora de su desarrollo a través de la facilitación
de sus datos de salud.
3.3. Drones
El uso de drones por la población general suscita una serie de desafíos reguladores. Los
drones están evolucionando más rápido de lo que los legisladores pueden regular, por lo
que, en muchos casos, el uso y la demanda de drones está surgiendo lentamente. Además,
la facilidad con la que se puede adquirir el producto online las hace cada vez más atrac-
tivas. Por otro lado, varios drones que vuelan sobre áreas densamente pobladas pueden
causaraccidentes peligrosos a sus residentes. También pueden causar daños a animales o
propiedad privadaen áreas despobladas.
Además estos plantean el problema ético de la invasión de la privacidad que puede causar
la posibilidad de equiparlos con todo tipo de sensores y cámaras.
Poco a poco van surgiendo estándares éticos y legislaciones que regulan es uso indiscri-
minado de estos dispositivos. Sin embargo estas regulaciones no están llegan a los dro-
nes dotados de inteligencia artificial, mas difíciles de conseguir y que no se encuentran
disponibles para el público general.
87
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Estos drones tienen aplicaciones que extiende mucho las posibilidades de uso de estos
sistemas. La inteligencia artificial se puede aplicar a prácticamente toda la tecnología que
nos rodea, y el uso en drones puede ser una forma de establecer una red de cámaras de
reconocimiento que pueden cubrir un espacio que, lógicamente, resulta insalvable para
las cámaras fijas.
Los drones pueden ser utilizados también en ámbitos industriales como en actividades
de construcción, actividades agrícolas e incluso actividades de búsqueda y salvamento.
Sin embargo, utilizar drones con inteligencia artificial puede conllevar una serie de im-
plicaciones éticas. Por ejemplo, uno de los posibles casos de uso de esta tecnología es
la identificación de personas en fuentes de conflicto, como un tumulto causado por una
pelea o un tiroteo. El objetivo de estos sistemas es identificar a agresores, pero también
será útil para controlar asaltos masivos en las fronteras, e incluso un secuestro o vanda-
lismo callejero gracias a un sistema de deep learning que irá ‘’aprendiendo’’ a medida que
sea testigo de los delitos. Los desafíos éticos están muy presentes cuando se muestra un
uso de la IA como este, ya que la tasa de fallo es bastante elevada. Las tasas de fallo de las
cámaras de reconocimiento facial en eventos deportivos son bastante elevadas, por lo que
no son raras las detenciones erróneas [68].
Respecto a los drones el espectro de acierto ideal de la IA es del 94% [69], lo que significa
una tasa de error (que es lo que hay que tener más en cuenta) del 6%. Esto, en grupos muy
numerosos, es bastante elevado.
Figure 32: Ejemplo de funcionamiento de un sistema de vigilancia por dron (DSS) en tiempo real[70]
88
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
https://www.youtube.com/watch?v=zYypJPJipYc&t=14s
Aunque el uso de este tipo de tecnologías puede resultar útil en el ámbito de la seguridad
es necesario tener en cuenta las implicaciones las implicaciones éticas de los mismos.
Muchas personas consideran una invasión de la privacidad el uso de drones para moni-
torización y vigilancia de la población. Además, podría incluir un uso inapropiado o frau-
dulento (terrorismo, espionaje, etc.). Debe, por tanto, asegurarse la protección de los datos
obtenidos mediante estas aeronaves, así como la previsión de contramedidas adecuadas
para los usos no permitidos.
Este tipo de sistemas tienen aplicaciones también en las fuerzas armadas. La inteligencia
artificial se aplica en Defensa y a los sistemas de armas desde el principio de la utilización
práctica de estas tecnologías. Pero, siendo la guerra un fenómeno humano y social, nunca
se debe dejar de lado el aspecto de conformidad ética del empleo de estos sistemas. El
uso de armas letales dirigidas a distancia tiene una larga aplicación. Sin embargo, los
retos éticos se plantean cuando se trata de armas dirigidas por inteligencia artificial que
funcionan sin intervención humana.
La exigencia de encontrar acomodo a los principios éticos de la guerra justa también re-
sulta aplicable al uso de las nuevas tecnologías representadas por la inteligencia artificial.
A esto se suma la condición de que no existe ningún sistema informático libre de ser
hackeado, además la capacidad de un sistema de cometer errores es proporcional a su
complejidad. Por ello cada vez hay más personas dentro del sector que piden diseñar los
sistemas con capacidad para ser abordados en caso de problemas.
89
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Pero, las tecnologías son diseñadas y creadas por personas. Tenemos la responsabilidad
de establecer límites entre lo que es aceptable y lo que es inaceptable.
En 2012 fue fundada la asociación Stop Killer Robots (detengan a los robots asesinos),
la cual trabaja para reducir la autonomía de las armas y en pos de utilizar la inteligencia
artificial con fines postivos.
“La tecnología debe usarse para empoderar a todas las personas, no para reducirnos a
estereotipos, etiquetas, objetos o simplemente un patrón de 1 y 0.
Con la creciente deshumanización digital, la coalición Stop Killer Robots trabaja para
garantizar el control humano en el uso de la fuerza. Nuestra campaña pide un nuevo dere-
cho internacional sobre la autonomía en los sistemas de armas.” -Stop Killer Robots [70].
90
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
4. Inteligencia Artificial y
Responsabilidad Social Corporativa
“El concepto de Responsabilidad Social Corporativa ha sido defini-
do de diversas formas sin llegar a un consenso, pero si hay un factor
común a todas estas definiciones, es que reflejan la necesidad de un
impacto más allá del beneficio económico de la empresa.”
Previamente al abordaje del concepto de RSC, comenzaremos con un breve contexto his-
tórico para profundizar en las raíces de este fenómeno. Como podremos comprobar, la
responsabilidad organizacional no es un concepto nuevo, pero este ha ido evolucionando
en la medida que las empresas lo han hecho, convirtiéndose en un valor intangible para
las organizaciones y proporcionando un enfoque más actualizado.
91
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Esta definición cambia la forma de entender las empresas que hasta el momento se ana-
lizaban como un ente aislado de la sociedad, posicionándolas como centros de poder,
donde las decisiones afectan a la sociedad e influyen en los comportamientos de los ciu-
dadanos. Bowen argumenta que la responsabilidad social no es la solución para todos los
problemas sociales de las empresas, pero que contiene una verdad importante que debe
guiar a las empresas en el futuro.
Tras esta primera conceptualización, es en los años sesenta cuando surge una prolifera-
ción de términos y prácticas desarrollando la idea de que la RSC es más que una obliga-
ción simplemente económica con la sociedad. Distintos autores relacionan la responsa-
bilidad de los directivos como agente de acción en la ética de la empresa y el rol social
honesto de ésta en la sociedad. Frederick W.C. (1960) comparte una reflexión sobre la
capacidad de las empresas para crear valor social más allá de la riqueza económica, desta-
cando nuevamente la figura del directivo. En esta etapa todavía no se llegaba a la acción
[72]
Tras el auge del concepto, es en los años setenta cuando se incorporan aspectos legales
y filosóficos que contribuyen a delimitar el término de una forma más precisa. A su vez
se señala la responsabilidad más allá del cumplimiento de los requerimientos legales, de
forma voluntaria y aplicándose a una gama más extensa de valores humanos que tienen
como fin último el bienestar social. Comienzan también a surgir modelos donde se tratan
las responsabilidades que tiene una empresa. El Comité para el Desarrollo Económico
(CED) en 1971 planteó uno de estos modelos.
Por su parte, Sethi (1975) distinguió entre tres comportamientos corporativos que podrían
llamarse [73]:
92
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Por último Carroll (1979), en uno de los modelos más utilizados, diferencia entre cuatro
tipos de responsabilidad: económica, legal, ética y filantrópica. [73]
Durante los años ochenta y noventa se comienzan a tratar temas complementarios o al-
ternativos a la RSC como la capacidad de respuesta social corporativa, el desempeño so-
cial corporativo o la ética empresarial. En los noventa surge un gran interés, en concreto,
por las teorías centradas en los stakeholders. Estos enfoques hacen hincapié en la satis-
facción de las necesidades del conjunto de personas que tienen cualquier tipo de relación
con la organización.
Desde los 2000 hasta la actualidad, se puede destacar que este concepto toma de nuevo
un creciente interés desde el comienzo del siglo XXI presentándose como un activo in-
tangible para las organizaciones. Se comienza a desarrollar de una forma global cobrando
gran importancia en Europa. En línea con la creciente atención que reciben la conserva-
ción y protección del medio ambiente, la sostenibilidad y la ética. Los autores se propu-
sieron demostrar cómo el enfoque de RSC establece una nueva forma de hacer negocios
que combina el éxito y la creación de valor con una actitud respetuosa y proactiva hacia
los grupos de interés y comienzan a surgir guías de buenas prácticas para las empresas.
93
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Las empresas de hoy en día comienzan a tomarse de forma muy seria la formulación de
una responsabilidad social corporativa. Las iniciativas voluntarias de responsabilidad so-
cial empresarial han sido una tendencia importante en los negocios internacionales en
los últimos años. A partir de esta tendencia y puesta en práctica de la RSC, se deduce que
tiene tanto un componente ético o moral como un componente comercial y beneficioso
en términos de rentabilidad para las empresas. En el mundo actual de intensa compe-
tencia global, está claro que la RSC puede ser sostenible mientras continúe agregando
valor al éxito corporativo y es la sociedad la que juega un papel cada vez mayor en lo que
constituye este éxito.
En definitiva, aún es pronto para establecer conclusiones acerca de cómo la RSC evolu-
ciona, se adapta a las tendencias cambiantes actuales y avanza en línea con el veloz pro-
greso en innovación. La evolución tecnológica supone una redefinición de la RSC para
tratar nuevos paradigmas como el que supone la gestión de la entrada de la Inteligencia
Artificial en las compañías y sus posibles efectos en el marco de referencia de la respon-
sabilidad social.
4.2.1. Concepto
Dada la importante influencia que puede tener este concepto en la innovación y desarro-
llo de las empresas del futuro y, por tanto, en la implementación de la inteligencia artifi-
cial en las empresas, comenzaremos con su definición.
94
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
4.2.2. Principios
La Organización Internacional de Normalización (ISO) en su Guía de Responsabilidad
Social tiene el objetivo de definir de una normativa internacional que ayude a las orga-
nizaciones a ser cada vez más socialmente responsables. En esta guía se establecen los
siguientes principios de la Responsabilidad Social Corporativa [79]:
95
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
96
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Por su parte, las empresas han cobrado una mayor relevancia gracias a este fenómeno,
incrementando su tamaño y la deslocalización de su actividad. Dado este creciente poder
de las organizaciones que afecta a la economía general, se exige una responsabilidad de la
misma magnitud hacia la sociedad, que se exprese en las acciones enmarcadas en la RSC.
Una tendencia creciente a una mayor sensibilidad social de las personas hacia el compor-
tamiento de las empresas, un aumento por la preocupación por el deterioro ambiental y
los Derechos Humanos, se convierten en factores que presionan a las empresas para la
adopción de una RSC.
Cada vez se valora más los principios de la RSC frente a los valores del mercado y ren-
tabilidad a la hora de calificar a una buena empresa. Por este motivo, cada vez es más
importante la cultura y los valores de las organizaciones a la hora de movilizar a un gran
volumen de personas.
Así mismo, los organismos públicos internacionales cada vez establecen un marco de
actuación obligatorio en cuanto a un desarrollo empresarial más sostenible. Algunos
ejemplos de iniciativas donde se dan lugar a las inquietudes y expectativas comunitarias
son el Pacto Mundial de las Naciones Unidas, el Libro Verde de la Comisión Europea o la
normativa ISO 26000.
97
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Las empresas cumplen con las responsabilidades básicos con las personas y el planeta
pero, además, construyen los cimientos para un éxito a largo plazo.
Es de especial relevancia la evolución a la llamada Industria 4.0 que pone sobre la mesa
nuevos retos para la Responsabilidad Social Corporativa de las empresas. La incorpo-
ración creciente de la Inteligencia Artificial en las empresas trae consigo un debate en
cuanto a cómo va a afectar a la transparencia, confianza y credibilidad de las organiza-
ciones y, por tanto, a su sostenibilidad. En los siguientes puntos nos detendremos en el
análisis de este factor de especial relevancia.
98
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Derechos humanos
En octubre de 2017, Sofía, producida por Hanson Robotics, fue el primer robot en recibir la
ciudadanía en Arabia Saudita. Es motivo de debate si la inteligencia artificial consciente
de sí misma podría entrar en conflicto con los humanos y actuar de un modo que no se
aprueba o perjudicarnos, ya que en este caso supondría una violación de los Derechos
humanos. Así mismo, si la IA tiene funciones humanoides, se plantea la cuestión de si
tendría derechos humanos.
Prácticas laborales
99
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
El entorno
100
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Si una empresa tiene tecnología de IA, tendrá ventaja competitiva y, por tanto, existe la
posibilidad de incrementar las desigualdades con los países más desfavorecidos, lo cual
sería tema de interés para la RSC.
Los productos de la IA pueden ser un buen recurso para consumidores y ofrecer un nuevo
nicho de mercado a las empresas. La IA podría ser útil para hacer frente a necesidades
básicas, adaptaciones, soporte y servicios en el día a día.
Tras este análisis, podemos extraer que la IA tiene un papel fundamental en el futuro de
las materias fundamentales de la RSC.
101
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Figure 37: Principales riesgos asociados a la inteligencia artificial en el entorno corporativo [82]
En la Figura 37 podeos observar los riesgos considerados como más relevantes por las
empresas en materia de Inteligencia Artificial. A continuación, analizaremos los más rele-
vantes en relación con la Responsabilidad Social Corporativa [83]:
Ciberseguridad y seguridad
Cumplimiento Normativo
102
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Transparencia
El sistema IA puede funcionar como una caja negra, sabemos lo que ocurre al final pero
no lo que sucede en el proceso intermedio. Se produce una falta de trazabilidad y expli-
cación clara sobre el funcionamiento y criterios que usan los sistemas para tomar una
decisión. Este hecho no permite un acceso libre a la información y entra en conflicto con
el principio de transparencia de la RSC, suponiendo un riesgo en cuanto a las consecuen-
cias imprevisibles que puede tener la automatización.
Privacidad personal
Como usuarios podemos revelar información privada y vulnerable que puede ser gestio-
nada de un modo poco ético por la IA. El problema resultante es que la información puede
ser utilizada con el fin de manipulación en beneficio de grupos específicos, más allá del
bienestar social.
Reputación de la Organización
Así como la RSC ha mostrado sus resultados generando una mejor imagen de la organiza-
ción, en contraposición la IA puede difundir una imagen de escasa transparencia, amena-
zando la privacidad de los individuos y poniendo en duda su deber con la sociedad. Hasta
que se establezca una regulación más estricta, son las propias compañías las que se tienen
que autorregular y garantizar a los usuarios transparencia en la toma de decisiones.
Justicia y equidad
La IA puede generar desigualdades en todo el mundo puesto que supone una ventaja
competitiva de los países con un mayor nivel de desarrollo tecnológico. Para un correcto
cumplimiento de la RSC es fundamental que se usen los datos de una manera honesta,
transparente e imparcial con el fin de evitar la discriminación de las minorías.
103
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
La información sensible que supone la vulnerabilidad del país puede ser manejada por
la IA. Si dicha información no es tratada con extremada precaución puede suponer una
brecha en nuestra seguridad nacional. Así mismo el uso de esta tecnología para la carrera
de armas inteligentes y otros medios de destrucción masivos supone un riesgo y una
vulneración de los Derechos Humanos.
Según los principios de la RSC debe poder llevarse a cabo un control sobre los impactos
a nivel ambiental, social y económico de la IA, así como una asignación de responsabi-
lidad para la reparación de errores. En la Al es difícil establecer una clara asignación de
responsabilidades ante posibles daños. Es necesaria una normativa sobre si es el sistema
o la organización dueña de la tecnología la entidad responsable.
104
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Perpetuación de sesgos
105
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
La IA puede ser un medio para mejorar la calidad de la educación y hacerla más accesible
para todos en organizaciones e instituciones educativas. Hay sistemas de decisión algo-
rítmica cuya función es asignar el nivel educativo optimo según el perfil educativo. Bots
y asistentes virtuales pueden facilitar la interacción y planificar un uso más eficiente de
los recursos. Traductores simultáneos en línea en cualquier lugar del mundo pueden faci-
litar la accesibilidad. Además, podría crearse de un sistema de aprendizaje personalizado
mediante el análisis de patrones de aprendizaje, adaptándose a la habilidad y velocidad de
aprendizaje de cada persona. En esta línea, se puede incorporar tecnología que obtenga
información sobre el ambiente, el lenguaje, estado emocional para este fin.
Cabe destacar que el trabajo para fomentar la reducción de cualquier desigualdad esta en
la eliminación de los sesgos de los propios algoritmos, puesto que, al ser obtenida de los
datos sesgados de la realidad, pueden albergar sesgos discriminatorios de cualquier tipo
que condicionen un buen resultado. La eliminación de los sesgos humanos mediante la IA
nos ayudará a obtener una visión más justa, honesta e igualitaria de la sociedad, teniendo
en cuenta en cuenta todos los colectivos, minorías y grupos en riesgo de exclusión.
La digitalización para una gestión del agua más inteligente estaría dentro del concepto
“Smart cities” lugares donde la tecnología se combina con los elementos cotidianos y el
ser humano para solucionar problemas sociales, económicos y medioambientales. La IA
puede hacer un análisis exhaustivo que permita proteger y mejorar la calidad y distribu-
ción de este recurso fundamental.
La utilización de big data, aprendizaje, IoT o los sistemas ciberfísicos pueden ser de
utilidad a la hora de promover la integración de suministros de energía mixtos y ayudar
a realizar un pronóstico de energías renovables. Contribuye a una gestión eficiente de
la demanda de energía, sirve para promover un uso responsable en la producción de las
empresas, incrementando el uso inteligente de energía renovable, reduciendo el impacto
medioambiental de la actividad de las empresas, reduciendo coste y fomentando un pre-
cio justo.
106
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Gracias a la IA podríamos realizar una asignación más eficiente de los recursos de pro-
ducción haciendo uso de logaritmos para realizar predicciones y la toma de decisiones en
cuanto a las acciones necesarias a llevar a cabo en las actividades de la empresa con el uso
responsable y optimizado los recursos y el mantenimiento de la maquinaria. El objetivo
es promover una industrialización sostenible e inclusiva que fomente la innovación en
lo denominado Industria 4.0. Estas acciones facilitarán la innovación en salud, servicios,
transportes y administración pública.
Las “Smart cities” tendrán un sistema de IA que las recorra como si constituyese su sis-
tema nervioso configurando ciudades sostenibles. Algunas de las aplicaciones que ac-
tualmente se llevan a cabo, es el uso de la IA para predecir picos de contaminación en las
ciudades. Podría hacerse uso de esta tecnología para hacer accesibles viviendas dignas
a los ciudadanos, mejorar un transporte publico sostenible, la movilidad y los espacios
verdes y azules dentro de las ciudades.
Además, puede cambiar la forma en las empresas gestionan residuos orgánicos y quími-
cos, permitiendo la clasificación de residuos y la creación de un ciclo de reciclaje inteli-
gente.
107
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
ODS 13 Acción por el clima, ODS 14 Vida submarina y ODS 15 Vida de ecosistemas
terrestres
Gracias a las imágenes obtenidas por satélite y el análisis de la información histórica del
entorno, mediante algoritmos de predicción las ciudades podrían tener la oportunidad de
prevenir y prepararse ante posibles desastres naturales y otros hechos climáticos. Actual-
mente, la ONU dispone de una herramienta para priorizar necesidades de las distintas
ciudades y monitorizar sistemas y servicios de red para identificar debilidades. De este
modo, se construyen ciudades más con capacidad de predicción y adaptación
Del mismo modo se puede contribuir a la conservación de bosques, así como contribuir
a la caza furtiva e ilegal mediante el desarrollo de algoritmo y utilización de drones o
vehículos aéreos no tripulados que identifiquen la caza furtiva, incendios u otros peligros
para la conservación de los ecosistemas terrestres.
ODS 16 Paz, justicia e instituciones sólidas y ODS 17 Alianzas para lograr objetivos
La IA y los sistemas multiagente pueden crear entornos virtuales que permitan generar
modelos sobre los protocolos y restricciones de comportamiento de los agentes institu-
cionales y la organización social. En definitiva, se trata de crear “instituciones electróni-
cas” como solución a posibles colapsos.
Así mismo crear una gobernanza global puede permitir tanto a países desarrollados como
no desarrollados a encontrar el modo de cumplir los ODS, fomentando una alianza. La IA
puede proporcionar las herramientas para obtener, analizar y proporcionar información
necesaria para facilitar una cooperación y alianza mundial.
108
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
109
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Telefónica además proporciona los llamados servicios digitales Eco Smart que ayudan
a las empresas a aumentar su eficiencia energética y sostenibilidad para proteger el pla-
neta. Las soluciones que ofrecen están basadas en una red 100% renovable y baja en emi-
siones. Los servicios Eco Smart de cloud, IoT, big data e Inteligencia Artificial reducen
el consumo de energía, emisiones de CO2 y agua, y potencian la economía circular. Sus
beneficios están verificados por AENOR.
4.6.2. Audi
En otra línea de actuación, el fabricante de automóviles Audi comienza a utilizar la IA
para asegurar a la sostenibilidad de su actividad. [88]
4.6.3. Microsoft
Microsoft es una de las grandes tecnológicas que lideran la carrera de la inteligencia
artificial a nivel global.
110
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Actualmente, mediante su iniciativa “AI for Good”, ponen la tecnología, recursos y expe-
riencia al servicio de aquellas empresas y organizaciones que trabajan para resolver pro-
blemas humanitarios y crear un mundo más sostenible y accesible. Cuentan con varios
proyectos: [89]
AI for Earth, en el que utilizan la IA para resolver los problemas del clima global y desa-
fíos medioambientales. En esta línea, han creado The planetary computer que combina
un catálogo de múltiples petabytes de datos ambientales globales con API intuitivas para
proporcionar un entorno científico flexible de la sostenibilidad. OceanMind es un proyec-
to que aumenta la sostenibilidad de la pesca mundial, gracias a la detección del tráfico
marino sospechoso por medio de IA.
AI for Health, colabora con organizaciones que contribuyen con algunos de los desafíos
de la salud global. El acceso a la tecnología de Microsoft, como Azure High Performance
Computing , Azure Machine Learning , Power BI , la plataforma Return to School Power
Platform y la plataforma de privacidad diferencial SmartNoise , han acelerado el progreso
realizado en la investigación en salud de los beneficiarios de estas colaboraciones.
AI for Accesibility es un programa para empoderar a las personas que tienen algún tipo
de discapacidad. Las iniciativas en este ámbito se centran en el desarrollo de tecnología
de asistencia, hogar, comunidad, educación y empleo.
111
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
Bibliografía
• [4] https://www.deepmind.com/publications/a-generalist-agent
• [5]https://ciberseguridad.com/guias/nuevas-tecnologias/inteligencia-artificial/
superinteligencia-artificial/#Caracteristicas_de_la_ASI
• [6] http://ftp.campusvirtual.utn.ac.cr/objetos%20de%20aprendizaje%20profesores/
exelearning%20etica%20profesional/eticaprofesional/conceptos_y_definiciones.
html
• [7] https://www.acm.org/about-acm/code-of-ethics-in-spanish
• [8] http://www.bcs.org.uk/
• [9] https://www.ieee.org
• [10] https://legoutdulibre.com/wp-content/uploads/SageCofeOfEthics-es.pdf
• [11]https://books.google.es/books/about/Yo_Robot.html?id=EKS1Dw
AAQBAJ&printsec=frontcover&source=kp_read_button&hl=es&redir_
esc=y#v=onepage&q&f=false
• [12]https://es.wikipedia.org/wiki/John_W._Campbell#La_leyenda_negra_de_
Campbell
• [14] Shermer, Michael (January 2002). «Shermer’s Last Law». Scientific American.
112
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• [17] https://es.wikipedia.org/wiki/Ley_de_Poe
• [18] https://media.iese.edu/research/pdfs/ST-0522.pdf
• [19]https://www.ipsos.com/sites/default/files/ct/news/documents/2022-01/Opi-
niones%20Globales%20y%20Expectativas%20sobre%20la%20IA%20-%20Ipsos-
WEF%20-%20Jan%202022%20-%20Reporte%20Español.pdf
• [20] https://aiethicslab.com
• [21] https://www.ai.se/en/projects-9
• [22] https://aiindex.stanford.edu/wp-content/uploads/2021/05/2021-AI-Index-Re-
port_Spanish-Edition.pdf
• [23] https://www.aepd.es/es/derechos-y-deberes/cumple-tus-deberes/principios
• [24] https://edri.org/files/1012EDRi_full_position.pdf
• [26]https://towardsdatascience.com/the-balance-accuracy-vs-interpretability-
1b3861408062
• [27] https://towardsdatascience.com/explainable-ai-application-of-shapely-values-
in-marketing-analytics-57b716fc9d1f
• [28] Miller, Tim. “Explanation in artificial intelligence: Insights from the social
sciences.” arXiv Preprint arXiv:1706.07269. (2017).
• [29] https://christophm.github.io/interpretable-ml-book/simple.html
• [30] Interpretable Machine Learning: A Guide For Making Black Box Models Ex-
plainable, Christoph Molnar (Autor)
• [31] “Why Should I Trust You?”: Explaining the Predictions of Any Classifier Marco
Tulio Ribeiro, Sameer Singh, Carlos Guestrin
• [32]https://www.oreilly.com/content/introduction-to-local-interpretable-model-
agnostic-explanations-lime/
113
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• [33]https://towardsdatascience.com/the-shapley-value-for-ml-models-f1100b-
ff78d1
• [34] https://towardsdatascience.com/explainable-ai-xai-methods-part-1-partial-de-
pendence-plot-pdp-349441901a3d
• [ 3 5 ] h t t p s : // b l o g s . u p m . e s /c a t e d r a - i d a n a e / w p - c o n t e n t /u p l o a d s /
sites/698/2019/09/3T19-Quarterly-iDANAE.pdf
• [36]https://fingfx.thomsonreuters.com/gfx/rngs/AMAZON.COM-JOBS-
AUTOMATION/010080Q91F6/index.html
• [37] https://ai.googleblog.com/2019/12/fairness-indicators-scalable.html
• [38]https://sloanreview.mit.edu/article/diversity-in-ai-the-invisible-men-and-
women/#:~:text=Gender%20comparisons%20are%20also%20stark,%2C%20
while%2078%25%20are%20male.):
• [39]https://theconversation.com/ai-is-in-danger-of-becoming-too-male-new-re-
search-121229
• [40] https://ainowinstitute.org/discriminatingsystems.pdf
• [41] https://pair-code.github.io/what-if-tool/
• [42] https://ai.googleblog.com/2019/12/fairness-indicators-scalable.html
• [43]https://learn.microsoft.com/en-us/azure/architecture/guide/responsible-inno-
vation/
• [44]https://learn.microsoft.com/en-us/azure/architecture/guide/responsible-inno-
vation/judgmentcall
• [45]https://learn.microsoft.com/en-us/azure/architecture/guide/responsible-inno-
vation/harms-modeling/
• [46]https://learn.microsoft.com/en-us/azure/architecture/guide/responsible-inno-
vation/community-jury/
• [47] https://jefferson-center.org/about-us/how-we-work/
• [48]https://www.microsoft.com/en-us/research/uploads/prod/2020/05/Fairlearn_
whitepaper.pdf
• [49] https://aif360.mybluemix.net
114
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• [50] https://www.pwc.com/gx/en/issues/data-and-analytics/artificial-intelligence/
what-is-responsible-ai.html
• [51] https://github.com/pymetrics/audit-ai
• [52] http://www.datasciencepublicpolicy.org/our-work/tools-guides/aequitas/
• [53] https://github.com/EthicalML/xai
• [54] https://github.com/QData/TextAttack
• [55] https://github.com/ayong8/FairSight
• [56] https://www.imdb.com/title/tt0470752/
• [57] https://www.filmaffinity.com/es/film889720.html
• [58] https://www.imdb.com/title/tt0182789/
• [59] https://www.tucuvi.com/platform
• [60] https://www.amazon.com/b?ie=UTF8&node=16008589011
• [61] https://www.moralmachine.net/hl/es
• [62] Grimes, W. (2019). Philippa Foot, 90, Dies; Philosopher Who Posed ‘Tro-
lley Problem’. [En líınea] Nytimes.com. Disponible en: https://www.nytimes.
com/2010/10/10/us/10foot.html. [Consultado: Abril 2019].
• [63] https://ddd.uab.cat/pub/tfg/2019/tfg_182235/_GOMEZ_GINEL_DAVID_IM-
PLICACIONES_ETICAS_VEHICULOS_AUTONOMOS.pdf
• [64] https://www.digitales.es
• [65] https://www.digitales.es/wp-content/uploads/2022/02/Informe_IA_Etica_
en_Sanidad.pdf
• [66] https://www.immedicohospitalario.es/noticia/20983/inteligencia-artificial-y-
radiografias-de-torax-anticipan-el-diagno.html
• [67] https://computerhoy.com/noticias/tecnologia/estos-son-drones-inteligencia-
artificial-que-identifican-peleas-260099
• [68] https://www.scribd.com/document/377980664/South-Wales-Police
115
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• [70] https://www.stopkillerrobots.org
• [75] Derobert, E., & Operations Howard Klee, J. World business council for sustai-
nable development.
• [76]https://www.carm.es/web/pagina?IDCONTENIDO=24376&IDTIPO=11&RAST
RO=c2126$m34201
• [77] https://observatoriorsc.org/la-rsc-que-es/
• [78] https://tgs-global.com
• [79] https://www.iso.org/obp/ui#iso:std:iso:26000:ed-1:v1:es
• [80] https://www.pactomundial.org
• [81] https://www.madrimasd.org/blogs/sostenibilidad_responsabilidad_social/
• [82] https://www.mckinsey.com
• [83] https://ec.europa.eu/commission/presscorner/detail/es/qanda_21_1683
• [84] https://centromexico.digital/riesgos-de-la-inteligencia-artificial/
116
Centro Europeo de Postgrado Módulo. Desafíos éticos y RSC
• [86] https://aiofthings.telefonicatech.com/por-que-nosotros/sostenibilidad
• [87] https://www.telefonica.com/es/sostenibilidad-innovacion/como-trabajamos/
principios-negocio-responsable/
• [88] http://prensa.audi.es/2022/01/31/audi-utiliza-inteligencia-artificial-para-con-
tribuir-a-la-sostenibilidad/
• [89] https://www.microsoft.com/en-us/ai/ai-for-good
117
CEUPE
Centro Europeo de Postgrado
Web
www.ceupe.com
E-mail
[email protected]