Sesgos en Inteligencia Artificial
Sesgos en Inteligencia Artificial
artificial y valores
laura alonso alemany 7
— 34
s ubjetividades pueden llegar a resultar perjudiciales para parte
de la población, incluso de formas muy sutiles, como veremos a
continuación.
— 35
conocimiento social y cultural sobre las variantes del castellano, y lo
ponemos en juego de forma bastante consciente.
Cuando tratamos de adaptar nuestra forma de hablar para que
una máquina reconozca lo que queremos decir, nuestra postura
puede ser diferente de cuando interactuamos con personas. Muchas
veces descartamos cuestionamientos que quizás sí plantearíamos a
una persona o institución al encontrarnos en un contexto mediado
por una tecnología como la inteligencia artificial, compleja y pres-
tigiosa, pero también con limitaciones. Nos damos cuenta de que
el sistema solo funciona bien si hablamos de cierta forma, pero no
le atribuimos una intencionalidad, sino que asumimos que se trata
de un mecanismo objetivo y simplemente tratamos de adaptarnos
a sus limitaciones como algo no intencional. Efectivamente, hasta
donde sabemos, las máquinas no tienen voluntad propia, pero el
contexto de mediación tecnológica, tan nuevo, tan complejo, tan
rodeado de grandes prestigios y grandes expectativas, dificulta que
entendamos qué voluntades pueden estar involucradas en esa tec-
nología, más allá de la máquina que la implementa.
Pero incluso si no llegamos a identificar las voluntades invo-
lucradas en el desarrollo de las tecnologías que encontramos en
nuestras vidas, sí podemos observar y entender el efecto de estas
tecnologías. Por ejemplo, ¿qué efectos puede tener que adaptemos
nuestra forma de hablar para facilitar que una máquina reconozca
nuestras palabras? Puede suceder, que empecemos a considerar
que nuestra variante del castellano no es moderna, no está alinea-
da con el progreso tecnológico, no nos sirve para tener éxito en el
mundo actual. Puede suceder que eso nos lleve a relegar nuestra
variante materna, con la consiguiente pérdida de capacidad expre-
siva e incluso de identidad. Puede ser, también, que si no conse-
guimos adaptar nuestro dialecto, la máquina no reconozca lo que
queremos decir, y eso puede tener efectos todavía más profundos:
podemos sentirnos inútiles, incapaces de funcionar con éxito en el
mundo actual. Puede contribuir a una imagen de nosotros mismos
como ineptos que termine convirtiéndose en un obstáculo para
— 36
royectarnos y funcionar de forma satisfactoria en una sociedad
p
cada vez más mediada por tecnología.
Entonces, el comportamiento de un sistema de inteligencia ar-
tificial puede tener efectos mucho más allá de la simple interacción
puntual entre la persona y la máquina. Si bien es cierto que resulta
difícil predecir todos los efectos que puede tener una determinada
tecnología en algo tan complejo como su uso en una sociedad, tam-
bién es cierto que esa responsabilidad recae especialmente sobre los
equipos que conciben, desarrollan e implementan esas tecnologías,
ya que son los que las conocen mejor. Profundicemos un poco en
cómo podemos empezar a abordar estas complejidades.
8 «El dilema de las redes sociales» es un documental combinado con elementos de ficción,
estrenado en 2020, dirigido por Jeff Orlowski y escrito por Orlowski, Davis Coombe, y Vickie Curtis.
9 «Prejuicio cifrado» es un documental dirigido por Shalini Kantayya y estrenado en 2020.
— 37
que involucran inteligencia artificial, especialmente los b
asados en
datos (es decir, los que utilizan algoritmos de aprendizaje automático
como los que discutimos en capítulos anteriores), son el producto de
los prejuicios de sus creadores. En este documental se muestra cómo
un sistema de reconocimiento de imágenes identifica con gran preci-
sión rostros de personas con piel clara pero comete muchos más erro-
res si se encuentra ante el rostro de una persona de piel más oscura.
Vemos aquí una gran diferencia entre un error accidental y un
error sistemático. En el caso de un error sistemático, incluso si no es
intencional o ni siquiera consciente, los efectos son también siste-
máticos y, por lo tanto, pueden ser identificados, solucionados y, en
el mejor de los casos, también prevenidos.
En los últimos tiempos hemos observado sistematicidades preo-
cupantes en los errores de algunos sistemas de inteligencia artificial.
Hemos entendido que los errores afectan de forma más perniciosa
a personas de grupos minorizados, mientras que tienen un mejor
funcionamiento con respecto a las personas de grupos dominan-
tes. Por ejemplo, un sistema de filtrado automático de candidatos
para lugares de trabajo para Amazon descartaba sistemáticamente
a mujeres.10 Twitter creaba automáticamente recortes de imágenes
grandes en las que sistemáticamente se mostraban las caras de las
personas en la imagen, priorizando personas blancas por encima de
personas de pieles más oscuras.11 El servicio de traducción automáti-
ca de Google traduce los nombres de profesiones que tienen género
neutro en inglés al género estereotipado para esas profesiones en
castellano, contribuyendo de esta forma a reforzar estereotipos
de género y a dificultar el acceso a d
eterminadas profesiones para
grandes sectores de la población.12 Por ejemplo, se traducen doctor y
— 38
nurse, palabras que pueden aplicarse a personas de cualquier género
en inglés, sistemáticamente como doctor y enfermera en castellano.
Este tipo de comportamientos es especialmente grave si tenemos
en cuenta que estos sistemas tienen injerencia en derechos h umanos
fundamentales como educación, salud o justicia. Por ejemplo, un
sistema de estimación de calificaciones escolares de Reino Unido
asignó notas más bajas de lo que realmente habrían obtenido a per-
sonas de barrios de renta baja, pero hizo estimaciones más acordes
con el resultado final para personas de barrios con mayor renta per
cápita. Varios cuerpos de policía alrededor del mundo usan sistemas
de reconocimiento facial para vigilar los espacios públicos y encon-
trar personas con orden de búsqueda y captura, pero como hemos
mencionado más arriba, estos sistemas poseen menos exactitud al
clasificar personas de pieles más oscuras que en personas de pieles
más claras. En la justicia del estado de Florida, en Estados Unidos,
un sistema que determinaba el riesgo de reincidencia en personas
que solicitan libertad condicional estimaba un riesgo mayor al real
para personas tipificadas como de etnia negra, y un riesgo menor al
real para personas tipificadas como de etnia blanca.
A este tipo de comportamiento sistemático se lo conoce como
sesgo, porque proviene de la intervención humana en la creación del
sistema. Incluso en sistemas que no han sido programados explícita-
mente por personas, como los basados en aprendizaje automático, el
sesgo humano determina con qué datos se entrena un modelo, cómo
se representan esos datos, e incluso con qué algoritmo se infiere el mo-
delo. Todas esas decisiones humanas, y por lo tanto subjetivas y con el
sesgo propio de cada persona, contribuyen a la configuración del mo-
delo final, y por lo tanto a su comportamiento. Por ejemplo, los grandes
modelos de lenguaje que subyacen a los sistemas de traducción auto-
mática reproducen estereotipos de género y etnia, pero no reproducen
lenguaje sexual explícito. Los datos con los que han sido entrenados no
representan indistintamente todas las producciones lingüísticas, sino
que muchas de ellas han sido vetadas según los valores de los equipos
que los han creado y los grupos sociales que los financian.
— 39
PODEMOS TRATAR EL SESGO
— 40
de detectarlos recién cuando el sistema ya está funcionando en la
sociedad y afectando la vida de las personas. La principal dificultad
para prevenirlos está en nuestras propias limitaciones cognitivas.
El sesgo es un mecanismo cognitivo básico de los seres humanos, y
resulta invisible para las personas que lo tienen. Por lo tanto, es prác-
ticamente inevitable que un sistema diseñado por personas incorpore
el sesgo de esas mismas personas. ¿Cómo hacer, entonces, para evitar
los comportamientos dañinos sistemáticos? La mejor propuesta que
tenemos hasta el momento no consiste en evitar los sesgos, sino en
multiplicarlos. Podemos multiplicar las miradas diferentes que inter-
vienen en el diseño de un sistema, o incluso antes, en el planteo de un
problema, de una solución, de un producto o un servicio. Diferentes
miradas pueden identificar problemas que resultan invisibles para
quienes comparten un mismo sesgo, y, de esta forma, podemos inten-
tar construir sistemas más respetuosos con las diversidades.
— 41
que llegó a serlo, es necesario remediarlo. Contamos con leyes que
garantizan muchos derechos fundamentales, como el derecho a la
no discriminación, pero resulta difícil aplicar estos principios gene-
rales a casos concretos, y a menudo sutiles, que involucran tecnolo-
gías sofisticadas en interacciones complejas con la sociedad. Afor-
tunadamente, en muchos países y también a nivel internacional,
se están diseñando normativas específicas que determinan las
responsabilidades, proveen mecanismos de control o disponibilizan
canales para recibir las quejas y comentarios de los usuarios, de la
misma forma que se desarrolló para otras áreas como alimentos,
productos farmacéuticos, o derecho del consumidor en general.
Resultan especialmente esperanzadoras las regulaciones que exigen
la auditabilidad de los sistemas que impactan en derechos funda-
mentales de las personas, como la ley rider en España13.
Estas exigencias regulatorias resultan totalmente factibles
a nivel técnico. Afortunadamente, el área Inteligencia Artificial
Responsable se ha desarrollado mucho en los últimos años y hoy
contamos con herramientas como métricas para supervisar el com-
portamiento de los sistemas, metodologías para obtener explicacio-
nes sobre las predicciones de los modelos y entornos de trabajo que
facilitan estas herramientas.
Queremos cerrar este capítulo con un llamado a la acción. A pe-
sar de las complejidades técnicas, los conceptos fundamentales en
los que se basan los modelos de inteligencia artificial son intuitivos.
También podemos comprender sin mucha dificultad cómo se com-
portan estos sistemas, aunque desconozcamos el detalle de cómo
funcionan internamente, y tenemos instrumentos para detectar los
sesgos. De esta forma, podemos convertirnos en agentes de cambio,
ser una parte activa para mejorar estos sistemas y ayudar a cons-
truir una inteligencia artificial mejor para todos.
13 La ley rider (del inglés, ciclista) establece una serie de medidas de protección a los derechos
laborales de las personas que se dedican al reparto domiciliario a través de plataformas digitales
en España (2021).
— 42