100% encontró este documento útil (1 voto)
156 vistas58 páginas

IA en Salud: Impactos y Regulación

Este documento resume la investigación, desarrollo e implementación de tecnologías de inteligencia artificial en el campo de la salud, sus impactos sociales y el marco regulatorio. Explora ejemplos en Argentina, Latinoamérica y el mundo, y destaca la necesidad de considerar principios éticos para minimizar riesgos asociados a la privacidad y discriminación cuando se usan datos personales y sensibles en aplicaciones de IA para la salud.

Cargado por

jacqueline
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
156 vistas58 páginas

IA en Salud: Impactos y Regulación

Este documento resume la investigación, desarrollo e implementación de tecnologías de inteligencia artificial en el campo de la salud, sus impactos sociales y el marco regulatorio. Explora ejemplos en Argentina, Latinoamérica y el mundo, y destaca la necesidad de considerar principios éticos para minimizar riesgos asociados a la privacidad y discriminación cuando se usan datos personales y sensibles en aplicaciones de IA para la salud.

Cargado por

jacqueline
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

 

Inteligencia  
Artificial y Salud 
Carolina Martínez Elebi* 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
*Lic.  en  Ciencias  de  la  Comunicación (UBA). Miembro del área de ​Inteligencia Artificial del Centro de Estudios en 
Tecnología y Sociedad (CETyS) de la Universidad de San Andrés (UdeSA) 
Septiembre 2020 

 
Índice 
 
Resumen 4 

1. Introducción 4 

2. Técnicas de Inteligencia Artificial: Machine Learning y Deep Learning 5 

3. Inteligencia Artificial y salud 9 

I. Caso concreto: Coronavirus. Datos, salud pública y privacidad 10 

A. Posibles riesgos 13 

B. Ejemplos de implementaciones 15 

II. Desarrollos e implementaciones de IA en salud en Argentina 21 

A. Gobierno de Salta (2018): predicción de embarazo adolescente 21 

B. LIAA y Entelai: Análisis de imágenes para detección de  

enfermedades y análisis de las palabras en psiquiatría 23 

C. Universidad del Litoral: El impacto del desbalance de género  

en bases de datos de entrenamiento de rayos X 24 

D. CONICET: Diferenciación de células madre 26 

III. Desarrollos e implementaciones de IA en salud en Latinoamérica 27 

A. Brasil: Estrategia en desarrollo y “LAURA” 27 

B. Colombia: Plan Nacional y “1DOC3” 28 

C. Chile: La política de IA y “DART” 29 

D. México: Primer Hub de IA en Jalisco y “Unima” 29 

E. Perú: “MIDIS” para detección temprana de anemia 30 

IV. Desarrollos e implementaciones de IA en salud en el mundo 31 

A. China: un Plan hacia 2050, Alibaba e Infervision 32 

B. Estados Unidos: Los desarrollos de las big tech 33 

 

 
 
 
C. España: Detección del cáncer de mama 34 

D. África: los casos de Kenia y Sudáfrica 35 

4. El trabajo con datos personales y sensibles 35 

5. Riesgos e impactos sociales 38 

I. Problemas de seguridad 39 

II. Vulneración de la privacidad 40 

III. Discriminación arbitraria (discriminación algorítmica) 42 

6. Marco regulatorio internacional 43 

7. Regulación vigente en Argentina 44 

8. Desafíos legales 45 

9. Principios éticos 47 

10. Buenas prácticas y requisitos para una IA fiable 52 

11. Tecnologías para la salud que protegen la privacidad 54 

12. Reflexiones y preguntas 57 

   

 

 
 
 
 

Resumen 
El  presente  documento  intenta  realizar  una  aproximación  a  la  investigación,  el  desarrollo  y 
la  implementación  de  tecnologías  de  inteligencia  artificial  en  el  campo  de  la  salud,  sus 
impactos  sociales,  el  marco  regulatorio  internacional,  la  normativa  vigente  local  y  los 
principios  éticos  que  deben  tenerse  en  cuenta  para  disminuir  los  riesgos.  El  análisis  está 
enfocado  en  Argentina  pero  se  presentan  ejemplos  de casos en el resto de Latinoamérica y 
el Caribe (LAC) y otros países del mundo. 

1. Introducción 
En  las  últimas  décadas,  el  desarrollo  global  del  capitalismo  ha  inaugurado  la  era  de  lo  que 
1
hoy  se  conoce  como  “economía  de  los  datos” ,  que  está  en  pleno  crecimiento  y  expansión. 
Desarrollos  tecnológicos,  plataformas  y  aplicaciones  –tanto  de  empresas  privadas como de 
los  Estados–  se  basan  en  los  datos  aportados  por  sus  usuarios  para  ofrecer  cada  vez  más 
servicios personalizados, para mejorar estadísticas, diagnósticos o tratamientos. Estos datos 
incluyen  tanto  los  que  las  personas  proveen  de  manera  voluntaria  como  los  que  emergen 
de  su  interacción  con  un  hardware  y  un  software  y  con  otros  usuarios,  es decir, los que los 
sistemas detectan, perciben y extraen. 

Una  de  las  técnicas  del  campo  de  la  Inteligencia  Artificial  (IA)  que  más  se ha beneficiado de 
la  cantidad  de  datos  de  todo  tipo,  extraídos  y  recopilados  durante  años,  provenientes  de 
2
millones  de  usuarios  del  mundo  conectado,  es la de Machine Learning , que es la que, en la 
actualidad,  tiene  mayor  desarrollo  y  alcance  en  cuanto  a  su  aplicación.  Esta  técnica  está 
3
diseñada  de  tal  manera  que  las  máquinas  “aprenden”   de  los  datos  que  se  le  suministran 
(por  lo  que  mientras  más  datos  reciba,  más  aprende)  y,  a  partir  del  tratamiento 
automatizado  de  esos  datos,  pueden  establecer  predicciones,  inferencias  y  tomar 
decisiones.  Además  de  la  cantidad,  el  enfoque  de  esta  técnica  está  basado  en la calidad de 
los  datos  que  se  utilizan.  Por  ejemplo,  para  que  un  sistema  pueda identificar a un perro en 

1
  Sobre  este  tema,  se  recomienda  la  lectura  de  Nick  Srnicek,  “Capitalismo  de  plataformas”,  publicado  en 
Argentina por la editorial Caja Negra 
https://cajanegraeditora.com.ar/libros/capitalismo-de-plataformas-nick-srnicek/  
2
  Conocida  en  español  como  aprendizaje  automatizado,  aprendizaje  automático  o  aprendizaje  de 
máquinas. 
3
  “Aprender”  está  escrito  entre  comillas  porque,  a  pesar  de  que  al  sistema  se  lo  conoce  como  un  sistema 
que  aprende,  es  importante tener presente que ese “aprendizaje”, en realidad, se debe a la contribución de 
ejemplos  por  parte  de  personas  que  permiten  definir  unas  cualidades  que  distinguen  objetos,  sujetos  y 
contenidos  entre  distintas  imágenes,  texto,  sonidos,  etc,  en  una  forma  rigurosa.  Ver  más  en  “AI  is  an 
Ideology,  Not  a  Technology”  por  Jaron  Lanier  y  Glen  Weyl  para  Wired.  Publicado  el  15  de  marzo  de  2020. 
Disponible en: 
https://www.wired.com/story/opinion-ai-is-an-ideology-not-a-technology/​ (consultado en abril de 2020). 

 

 
 
 
una imagen, antes tuvo que aprender de cientos de miles de imágenes de perros diferentes, 
4
e  incluso  así  podría  confundirlo  con  una  magdalena .  Es  por  este  motivo  que  las empresas 
que  desarrollan  sistemas  basados  en  Machine  Learning  argumentan  que  para  mejorar  la 
eficacia  y  precisión  necesitan  almacenar  y  analizar  cada  vez  más  datos,  entre  los  que  se 
encuentran  los  datos  personales  de  los  usuarios  (lo  que  puede  incluir,  en  algunos  casos, 
datos  vinculados  a  la  salud,  datos  biométricos  y  datos  genéticos,  que  en  algunas 
legislaciones son considerados datos sensibles y gozan de mayor protección). 

En  este  contexto,  el  acceso,  uso  y  tratamiento  de  datos  personales  e  información  pública 
adquiere  gran  relevancia  debido  a la incidencia social que tiene en las personas. Es por esto 
que,  en  el  último  tiempo,  desde  algunos  sectores  comenzó  a  discutirse  la  necesidad  de 
5
pensar en el desarrollo de una “IA ética”, en el caso de que eso sea posible . 

¿Qué  tipos  de  datos  se  recopilan?  Metadatos,  datos  de tráfico, datos de localización y datos 


personales,  por  un  lado;  pero  también  cada  interacción  digital  cotidiana  produce  un  dato 
como  subproducto  para  la  “economía  de  los  datos”:  datos  de  salud,  datos  biométricos, 
hábitos  de  consumo  y  generales  (cantidad  de  horas  de  sueño,  cantidad  de  actividad  física 
realizada,  etc),  poder  adquisitivo,  gustos  y  preferencias,  entre  muchos  otros.  Por  este 
motivo  adquiere  relevancia  la  legislación  en  materia  de  protección  de  datos  personales  así 
como  de  datos  sensibles  -entre  otras,  como  las  que  regulan  la  transparencia  de  los 
algoritmos  que  operan  en  la  toma  de  decisiones  de  un  sistema-  a  la  hora  de  regular  el 
desarrollo y la aplicación de IA en diversos ámbitos de la sociedad. 

En  el  presente  trabajo  se  mencionan  ejemplos  de sistemas de IA ​aplicados a la salud que se 


desarrollan  en  diversos  países  del  mundo y se analizan sus posibles impactos sociales y sus 
riesgos,  teniendo  como  eje  la  seguridad  de  los  datos,  la  privacidad  de  las  personas  y  los 
posibles  sesgos  en  sus  resultados,  considerando  que  se  trabaja  con  datos  personales  y 
sensibles  (los  de  salud,  principalmente,  entre  otros).  Asimismo,  se  analiza  el  marco 
regulatorio  vigente  y  los  desafíos  legales,  así  como  los  principios  éticos  y  las  buenas 
prácticas  para  pensar,  diseñar  e  implementar  desarrollos  de  inteligencia  artificial  para  el 
ámbito de la salud, teniendo como objetivo el bien común. 

2.Técnicas  de  Inteligencia  Artificial: 


Machine Learning y Deep Learning 
La  Inteligencia  Artificial  (IA)  podría  definirse  como  el  campo  que  estudia  cómo  los  sistemas 
artificiales  pueden  realizar  acciones  inteligentes.  En  este  sentido,  una  de  sus  pretensiones 

4
  Ver:  “Sabotaje  al  ‘machine  learning’:  ¿chihuahua  o  ‘muffin’?”,  publicado  por  Retina  de  El  País,  el  1  de 
febrero de 2018. Disponible en: 
https://retina.elpais.com/retina/2018/01/25/tendencias/1516886113_207256.html  (consultado  en  marzo de 
2020). 
5
  Ver:  “Is  Ethical  A.I.  Even  Possible?”,  publicado  por  The  New  York Times, el 1 de marzo de 2019. Disponible 
en:  ​https://www.nytimes.com/2019/03/01/business/ethics-artificial-intelligence.htm​l  (consultado  en  marzo 
de 2020). 

 

 
 
 
es  construir  réplicas  de  la  red  neuronal  del  cerebro  humano  para  imitar  (y,  en  lo  posible, 
superar)  las  habilidades  cognitivas  y  funcionales  del  ser  humano  con  una  computadora, 
aumentando  la  utilidad  de  las  máquinas  y  sus  procesos.  Este  campo  está  conformado  por 
diversas  técnicas  que  se  utilizan  para  intentar  resolver  problemas  y  tomar  decisiones  de 
forma similar a cómo lo hacen las personas en su vida cotidiana. 

Como  se  desprende  de  los  ejemplos  presentados  en  este  trabajo,  los  datos  son  el  insumo 
fundamental  de  los  sistemas  de  Inteligencia  Artificial  que  se  utilizan  en  la  actualidad.  La 
irrupción  de  internet,  la  disponibilidad  ubicua  de  datos,  la  capacidad  casi  masiva  de 
recolectar  esos  datos  y  la  potencia  de  cómputo  que  tenemos  hoy  disponible,  hace  que  en 
los  últimos  años  haya  habido  un  despliegue  exponencial  de  las  técnicas  de  Inteligencia 
Artificial conocidas como Machine Learning (ML) o aprendizaje automático. 

Gracias  a la inmensa capacidad de cómputo, que de acuerdo con la Ley de Moore se duplica 
6
cada  dos  años ,  en  la  actualidad  tenemos  la  posibilidad  de  extraer  información  a  partir  de 
7
grandes  cúmulos  de  datos.  Es  decir  que  a  partir  del  big  data   -ese  magma  de  datos  que 
parece  infinito-  los  sistemas  pueden  ser  capaces  de  encontrar  patrones  inferenciales 
(aunque  la  existencia  de  estos  patrones  no  quiere  decir que siempre haya causalidad entre 
los mismos). 

Algunos  comportamientos  considerados  “inteligentes”  de  los  que  ya  son  capaces  las 
computadoras  pueden  consistir  en  aprender  nuevas  tareas,  resolver  algunos  problemas, 
captar  y  analizar  la  información  de  alrededor,  entre  otros.  Uno  de  los  desafíos  que todavía 
pone  obstáculos  es  el  de  mejorar  su  capacidad  de  comprender  los  contextos, 
principalmente  para  el  desarrollo  del  lenguaje  natural,  para  lo  que  necesita  mejorar  su 
8
comprensión de la semántica ​. 

El  Machine  Learning,  una  técnica  dentro  de  la  IA,  es  un  campo  de  estudio  que  otorga  a  las 
computadoras  la  capacidad  de  aprender  sin  ser  explícitamente  programadas,  según  la 

6
 La Ley de Moore indica que cada dos años se duplica el número de transistores en un microprocesador, lo 
que  se  ve  reflejado  en  su  potencia  para  procesar  datos.  “Cramming  more  components  onto  integrated 
circuits”  por  Gordon  E.  Moore.  Publicado  el  19  de  abril  de  1965.  Disponible  en: 
https://web.archive.org/web/20141006144200/http://web.eng.fiu.edu/npala/EEE6397ex/Gordon_Moore_19
65_Article.pdf​ (consultado en junio de 2020). 
7
  “Lo  más  obvio  es  decir  que  big  data  son  ‘datos  masivos’.  Pero  en  realidad  se refiere al volumen y tipo de 
datos  provenientes de la interacción con dispositivos interconectados, como teléfonos celulares, tarjetas de 
crédito,  cajeros automáticos, relojes inteligentes, computadoras personales, dispositivos de GPS y cualquier 
objeto  capaz  de  producir  información  y  enviarla  electrónicamente  a  otra parte” (“Perdidos en el océano de 
datos” en Big data. Breve manual para conocer la ciencia de datos que ya invadió nuestras vidas, por Walter 
Sosa Escudero, Siglo XXI Editores, 2019, p. 31). 
8
  “Aunque  lo  parezca,  la  IA  sigue  sin  entender  nada  de  lo  que lee y dice” por Karen Hao, traducido por Ana 
Milutinovic,  para  MIT  Technology  Review.  Publicado  el  6  de  febrero  de  2020.  Disponible  en: 
https://www.technologyreview.es/s/11843/aunque-lo-parezca-la-ia-sigue-sin-entender-nada-de-lo-que-lee-y
-dice​ (consultado en junio de 2020). 

 

 
 
 
9
definición  de  Arthur  Samuel .  Es  un  proceso  complejo  en  el  que  también  intervienen  las 
decisiones humanas y que pueden derivar en un resultado sesgado. 

El  ML  está  relacionado  con  algoritmos inspirados en la estructura y función del cerebro, por 


eso  el  nombre  de  Redes  Neuronales  Artificiales  (RNA).  Las  RNA  son  modelos 
computacionales  que  procesan  información  imitando  el  funcionamiento  de  las  neuronas 
biológicas,  por  lo  que  están  compuestas  por  nodos  o  “neuronas”  que  reciben, transmiten y 
envían  información  y  que  están  conectados  como  una  red. El objetivo de las RNA es ayudar 
a  que  los  sistemas  puedan  funcionar  como  un  cerebro  humano  en  cuanto  al  aprendizaje y 
al pensamiento. 

La  técnica  de  ML  se  utiliza  para  “enseñarles”  a  las  computadoras  o  hacer  que “aprendan” a 
realizar  cierta  tarea,  con  el  objetivo  de  que  puedan  realizarla  de manera autónoma sin una 
preconfiguración  o  establecimiento  de  reglas  que  “obliguen”  al  sistema  a  actuar  de 
determinada  manera.  En  otras  palabras,  el  ML  es  el  método  mediante  el  cual  se  crea  y  se 
mejora  la  inteligencia  artificial  de  las  computadoras  a  través  de  sesiones  de 
“enseñanza-aprendizaje”,  que  se  conocen  como  “entrenamientos”  y  que  consisten  en  la 
exposición constante a conjuntos de big data. 

Las  Redes  Neuronales  Artificiales  suelen  estar  conformadas  por  múltiples  capas  de  nodos 
ocultos,  que  son  los  que  transmiten  la  información  entre  los  nodos  de  la  red  -de entrada y 
de  salida-.  A  estas  capas  se  las  conoce  como  “capas  de  aprendizaje”  y  a  mayor cantidad de 
capas, mayor es la profundidad de la red y mayor es la capacidad de aprendizaje. 

Estas  multicapas  y  su  profundidad  dan lugar al Deep Learning (DL), o aprendizaje profundo, 


un subconjunto de técnicas de Machine Learning que está basado en arquitecturas de redes 
neuronales  profundas,  multicapa,  para  aprender  de  grandes  cantidades  de  datos.  Se llama 
multicapa  porque esas redes neuronales están compuestas por muchas capas de pequeños 
procesadores o pequeñas unidades lógicas que están interconectadas de distintas maneras, 
dependiendo de la arquitectura que tenga esa red neuronal. 

9
  A.  L.  Samuel,  “Some  studies  in  machine  learning  using  the game of checkers”, en IBM Journal of Research 
and Development, vol. 44, no. 1.2, pp. 206-226, Enero 2000. Originalmente publicado en 1959. 

 

 
 
 
Fig. 1: Red neuronal monocapa 

Fig. 2: Red neuronal multicapa 

Mientras  que  los  modelos  tradicionales  crean  análisis  con  estructuras  lineales, los modelos 
de  Deep  Learning  se  caracterizan  por  una  estructura  jerárquica  que  permite  procesar  los 
datos  con  un  enfoque  no  lineal.  Un  modelo  basado  en  Deep  Learning  puede  aprender  a 
realizar  tareas  de  clasificación  directamente  a  partir  de  imágenes,  texto  o  sonido,  sin 
necesidad  de  intervención  humana  para  la  selección  de  las  características.  Esto,  que  se 
conoce  como  “​feature  discovering​”  se  considera  la  principal  característica  y  la  ventaja  del 
Deep  Learning.  Otros  problemas  populares  que  puede  resolver  el  DL  son  la  conversión  de 
voz a texto, la traducción de idiomas y la generación de imágenes. 

 

 
 
 
En  el  presente  trabajo,  cuando  se  habla  de  Inteligencia  Artificial  se  hace  referencia  a 
técnicas  de  Machine Learning o de Deep Learning (como es el caso de las Redes Neuronales 
Convolucionales  con  las  que  trabaja  Enzo  Ferrante,  que  se  mencionan  en  el  apartado  de 
desarrollos  e  implementaciones  en  Argentina).  Con  respecto  al  ciclo  de  vida  de  la 
Inteligencia  Artificial,  es  importante  tener  en  cuenta  que  este  consiste  en la recopilación de 
datos,  el  desarrollo  de  los  modelos,  la  validación,  la  implementación,  y  el  monitoreo 
continuo  -esto  último,  principalmente,  para  disminuir  los  riesgos  e  impactos  negativos  en 
cuanto a sesgos en los resultados-. 

3.Inteligencia Artificial y salud 


En  la  actualidad,  un  campo  disciplinar  en  el  que se destacan los beneficios que podría traer 
el  uso  de  técnicas  de  ​machine  learning  -y  también  sus  riesgos-  es  el  de  la  salud, 
principalmente  para  diagnósticos.  Un  ejemplo  internacional  es  el  sistema  Watson  de  IBM 
que  está  comenzando  a  realizar  diagnósticos  en  algunos  hospitales  de  Estados  Unidos 
-como  por  ejemplo  en  el  Memorial  Sloan-Kettering  Cancer  Center-  a  partir  de  datos  que 
recopila  de  las  historias  clínicas  de  alrededor  de  un  millón  y  medio  de  pacientes  y  dos 
10
millones de páginas de artículos académicos en revistas científicas .  

Sin  embargo,  esto,  que  podría  servirle  a  los  médicos  para  realizar  una  detección  temprana 
de  alguna  determinada  enfermedad  para  comenzar  a  tratarla  y  mejorar  las  oportunidades 
de  cada  paciente,  no  es  lo  único  que  se  propone  hacer  en  el  ámbito  de  la  salud.  En  otros 
casos  se  diseñan  sistemas  para  realizar  predicciones  y  anticiparse  a situaciones delicadas y 
complejas,  con  posibles  impactos  negativos  sobre  derechos  fundamentales  como  la 
privacidad  o  con  el  refuerzo  y  la  consolidación  de  desigualdades  y  situaciones 
discriminatorias  que  ya  existen  en  la  sociedad. Este podría ser el caso de lo que el entonces 
gobernador  de  la  provincia  de  Salta,  Juan  Manuel  Urtubey,  propuso  en  2018,  cuando 
anunció,  en medio del debate nacional sobre la legalización de la interrupción voluntaria del 
embarazo,  que  con  un  sistema  de  IA  iban  a  poder  predecir  el  embarazo  de  niñas  y 
11
adolescentes .  Con  respecto  a  esto,  desde  el  Laboratorio  de  Inteligencia  Artificial  Aplicada 
de  la  Facultad  de  Ciencias  Exactas  de  la  Universidad  de  Buenos  Aires  se  alertó  que  se 
trataba  de  una  decisión  algorítmica  basada  en  prejuicios:  “Tanto  los  problemas 

10
  “Algoritmolandia.  Inteligencia  Artificial  para  una  integración  predictiva  e  inclusiva  de  América  Latina. 
Revista  Integración  &  Comercio  #44”  por  el  BID,  INTAL  y  Planeta.  Publicado  en  julio  de  2018,  pp.  350-353. 
Disponible en: 
https://publications.iadb.org/publications/spanish/document/Revista-Integraci%C3%B3n--Comercio-A%C3%
B1o-22-No-44-Julio-2018-Algoritmolandia-inteligencia-artificial-para-una-integraci%C3%B3n-predictiva-e-incl
usiva-de-Am%C3%A9rica-Latina.pdf​ (consultado en marzo de 2020). 
11
  “El  método  que aplica Urtubey para predecir el embarazo adolescente”, por Bárbara Defoix. Publicado en 
el Diario Perfil el 12 de abril de 2018. Disponible en: 
https://www.perfil.com/noticias/politica/el-metodo-que-aplica-urtubey-para-predecir-el-embarazo-adolesce
nte.phtml​ (consultado en marzo de 2020). 

 

 
 
 
metodológicos  como  los  datos  poco  confiables  plantean  el  riesgo  de  tomar  medidas 
12
incorrectas a los responsables de políticas públicas” ​. 

Los  ejemplos  más  recientes  de  uso  de  datos  en  el  campo  de  la  salud pública, que no están 
encontrando  límites  a  su  expansión  territorial,  son  los  que  empezaron a implementarse en 
distintos  países  del  mundo  para  combatir  el  avance  de  la  enfermedad  por coronavirus que 
se  conoció  en  diciembre  de  2019  (COVID-19)  en China y que se declaró pandemia en marzo 
de  2020,  por  encontrarse  en  169  países  o  regiones  del  mundo.  En  el  presente  trabajo  se 
incluye un análisis del caso concreto sobre las tecnologías utilizadas en China, Corea del Sur, 
Estados Unidos y Argentina, y los posibles riesgos que conllevan. 

Además,  se  mencionan  ejemplos  de  todo  el  mundo  de  desarrollos  basados  en  tecnologías 
de  Inteligencia  Artificial,  Machine  Learning y análisis de datos, que son sólo una parte de los 
inventos  de  los  últimos  años  en  materia  de  tecnología  para  el  campo  de  la  medicina  (que 
van  desde  robots,  minirrobots,  sensores,  chips  que  se  insertan  en  el  cuerpo,  ​wearables 
-relojes  o  ropa-  que  miden  distintas  variables,  aplicaciones  de  autodiagnóstico, 
13
telemedicina, impresiones 3D de órganos y prótesis y tratamientos con realidad virtual) ​. 

En  un  documento  publicado  desde  la  iniciativa  fAIr  LAC  del  Banco  Interamericano  de 
Desarrollo  (BID)  en  enero  de  2020,  se  citan  los  siguientes  datos de la Organización Mundial 
de  la  Salud  (OMS):  “En  el  mundo  existen  cerca  de  138  millones  de  pacientes  que  resultan 
perjudicados  cada  año  por  errores  médicos,  de  los  cuales  2,6  millones  fallecen.  Durante 
2015,  los  errores  médicos  relacionados  con  el  uso  incorrecto  de  fármacos  y  fallas  de 
diagnóstico  representaron  la  tercera  causa  de  muerte  en  Estados  Unidos y el 10% de todas 
14
las  muertes” .  A  raíz  de esto, se considera que el desarrollo de los sistemas informáticos de 
salud permitirá la implementación de algoritmos preventivos, como diagnósticos tempranos 
de enfermedades, que permitirán mejorar la calidad y eficiencia de la atención. 

I. Caso  concreto:  Coronavirus.  Datos,  salud  pública  y 


privacidad 
El  31  de  diciembre  de  2019,  en  Wuhan  (China),  fue  notificado  por  primera  vez  el  brote  de 
enfermedad  por  coronavirus  (COVID-19,  producto  de  un  nuevo  tipo  de  coronavirus 

12
  LIAA  (Laboratorio  de  Inteligencia  Artificial  Aplicada).  “Sobre  la  predicción  automática  de  embarazos 
adolescentes”, publicado en 2018. Disponible en: 
https://liaa.dc.uba.ar/es/sobre-la-prediccion-automatica-de-embarazos-adolescentes/  (consultado  en 
marzo de 2020). 
13
  OPPENHEIMER,  A.  “¡Cúrese  quien  pueda!”  en  ​¡Sálvese  quien  pueda!  El  futuro  del  trabajo  en  la  era  de  la 
automatización​. Buenos Aires, Debate, 2018, p. 189. 
14
  “fAIr  LAC:  Adopción  ética  y  responsable  de  la  inteligencia  artificial  en  América  Latina  y  el  Caribe”  por 
Marcelo  Cabrol,  Natalia  González  Alarcón,  Cristina  Pombo,  y  Roberto  Sánchez  Ávalos  para  el  Banco 
Interamericano  de  Desarrollo  (BID).  Publicado  en  enero  de  2020.  Disponible  en: 
https://publications.iadb.org/es/fair-lac-adopcion-etica-y-responsable-de-la-inteligencia-artificial-en-america
-latina-y-el-caribe​ (consultado en junio de 2020). 

 
10 
 
 
 
15
conocido  como SARS-CoV-2)  a la OMS. Desde entonces, el virus no se detuvo y se expandió 
a  distintos  puntos  del  mundo  hasta  convertirse  en  una  pandemia  que,  al  día  de  hoy,  se 
encuentra  presente  en  188  países  o  regiones,  con  un  total  de  12.932.741  de  casos 
16
confirmados y 569.679 muertos . 

Desde  que  se  conoció  sobre  el  virus,  sus  síntomas  y  su  capacidad  de  contagio,  se 
establecieron  dos  medidas  a  nivel  global  que  se  consideraron  las  más  efectivas  para 
17
contrarrestar  su  avance:  el  aislamiento  y  el  distanciamiento  físico .  Este  distanciamiento, 
según  dice  un  equipo  de  investigadores  de  la Universidad de Harvard que analizó el avance 
18
del  virus  en  los  Estados  Unidos ,  debería  continuar  por  períodos intermitentes, para evitar 
que  los sistemas de salud se vean colapsados, y la duración e intensidad de los aislamientos 
se podrían relajar a medida que los tratamientos y las vacunas empiecen a estar disponibles
19
.  

Teniendo  en  cuenta  esto,  países  como  China  y  Corea  del  Sur  comenzaron  a  utilizar  sus 
sistemas  de  vigilancia  para  hacer  cumplir  estas  y  otras  medidas  para  combatir  la 

15
  Según  información  oficial  de  la  Organización  Mundial  de  la  Salud,  “los  coronavirus (CoV) son una amplia 
familia de virus que pueden causar diversas afecciones, desde el resfriado común hasta enfermedades más 
graves,  como  ocurre  con  el coronavirus causante del síndrome respiratorio de Oriente Medio (MERS-CoV) y 
el  que  ocasiona  el  síndrome  respiratorio  agudo  severo  (SARS-CoV).  Un  nuevo  coronavirus  es  una  nueva 
cepa  de  coronavirus  que  no  se  había  encontrado  antes  en  el  ser  humano.  Esas  infecciones  suelen  cursar 
con fiebre y síntomas respiratorios (tos y disnea o dificultad para respirar). En los casos más graves, pueden 
causar neumonía, síndrome respiratorio agudo severo, insuficiencia renal e, incluso, la muerte. 
16
  Coronavirus  COVID-19  Global  Cases  by  the  Center  for  Systems  Science  and  Engineering  (CSSE)  at  Johns 
Hopkins University (JHU). Disponible en 
https://gisanddata.maps.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf
6​ (consultado el 13 de julio de 2020). 
17
  Aunque  en  los  medios  de  comunicación  se  utiliza  el  concepto  de  “aislamiento  o  distanciamiento social”, 
Maria  Van  Kerkhove,  epidemióloga  de  enfermedades  infecciosas  de  la  Organización  Mundial  de  la  Salud 
explicó por qué deberíamos referirnos a estas medidas como “aislamiento o distanciamiento físico” pero no 
social:  “Olvídate  del  término  ‘distanciamiento  social’;  la  OMS prefiere que digamos ‘distanciamiento físico’ y 
esta es la razón” por Harmeet Kaur, para CNN en Español. Publicado el 16 de abril de 2020. Disponible en: 
https://cnnespanol.cnn.com/2020/04/16/olvidate-del-termino-distanciamiento-social-la-oms-prefiere-que-di
gamos-distanciamiento-fisico-y-esta-es-la-razon/  (consultado  en  abril  de  2020).  La  transcripción  de  la 
conferencia de prensa de Maria Van Kerkhove puede consultarse acá: 
https://www.who.int/docs/default-source/coronaviruse/transcripts/who-audio-emergencies-coronavirus-pr
ess-conference-full-20mar2020.pdf?sfvrsn=1eafbff_0  
18
  Debe  tenerse  en  cuenta  que  Estados  Unidos  es  el  país  que  presenta  mayor  cantidad  de  casos  de 
personas  contagiadas  y  de  muertes  por  coronavirus  por  una  serie  de  medidas  preventivas  que  no  se 
tomaron  a  tiempo  y  del  deficiente  sistema  de  salud  de  ese  país.  “Coronavirus  en  Estados  Unidos: 4 claves 
que  explican  el  enorme  impacto  del  coronavirus  en  el  país  con  más  muertos  por  covid-19  del  mundo”  en 
BBC  News  Mundo.  Publicado  el  13  de  abril  de  2020.  Disponible  en: 
https://www.bbc.com/mundo/noticias-internacional-52273159​ (consultado en abril de 2020). 
19
  “Projecting  the  transmission  dynamics  of  SARS-CoV-2  through  the  postpandemic  period”  por  Kissler,  S.; 
Tedjanto,  C.;  Goldstein,  E.;  Grad,  Y.  H.;  y  Lipsitch,  M.  en  Revista  Science.  Publicado  el  14  de  abril  de  2020. 
Disponible en: 
https://science.sciencemag.org/content/early/2020/04/14/science.abb5793  (consultado  el  23  de  abril  de 
2020). 

 
11 
 
 
 
20
propagación  del  virus .  A  raíz  de  esto,  el  despliegue  del  uso  de  tecnología  para  combatir y 
afrontar  el  avance  del  virus  cruzó  fronteras  y  llegó  a  Europa,  Australia,  Estados  Unidos  y 
21
varios  países  de  América  Latina,  incluyendo  a  la  Argentina .  Así,  se  conocieron  desarrollos 
de  tecnologías  varias,  algunas  de  Inteligencia  Artificial,  con  diversos  objetivos:  detección  y 
seguimiento  de  la población; prevención a través del monitoreo de signos vitales y síntomas 
relacionados  (saturación  de  oxígeno,  frecuencia  respiratoria  y  cardíaca,  y  fiebre); 
22
seguimiento  de  los  pacientes  diagnosticados;  y  la  evaluación  de  los  riesgos  de  infección , 
entre  otros.  La  pregunta  es  de  qué  manera  se  implementan  estas  tecnologías  y  cuáles  son 
las consecuencias sociales de las mismas. 

En  el  caso  de  la  detección  de  la  población  el  objetivo  es  identificar  quién  podría  estar 
enfermo  -debido  a  si  estuvo  en  contacto  con  otras  personas  infectadas  o  si  venía  de  estar 
en  algún  país  que  ya  tenía  casos  de  coronavirus-  para  contener  el  avance  del  contagio.  En 
este  caso,  algunas  aplicaciones  utilizan  la  información  sobre  el  tiempo  que  las  personas 
pasan  en  un  lugar  en  particular  y sobre la cantidad de infecciones que ocurren allí para que 
los  científicos  puedan  crear  modelos  espaciales  que  representan  la  evolución  de  los 
23
contactos  entre  las  personas  infectadas,  y  así  capturar  cómo  evoluciona  la  transmisión . 
Algunos  especialistas  explican  que  estas  medidas  son  necesarias  porque  este  tipo  de  virus 
es  más  difícil  de  detectar  debido  a  la  enorme  cantidad  de  personas  que  pueden  ser 
portadoras  y  no  presentar  síntomas.  Por  otro  lado,  las  aplicaciones  de  evaluación  de  los 
riesgos  de  infección  son,  además  de  para  identificar  posibles  casos,  para  descomprimir  el 
sistema  de  salud  de  cada  ciudad  y  evitar  aglomeraciones de personas en lugares donde los 
contagios son más probables.  

En  el  presente  trabajo  se  hace  referencia  a  algunas  de  las  tecnologías  de  IA  que  se  están 
desarrollando  para  manejar  el  avance  del  COVID-19  en  distintos  países  del  mundo.  En  la 
mayoría  de  los  casos  se  observa  que  lo  que  se  priorizó  fue  la  urgencia, teniendo en cuenta 
el  contexto, por lo que muchos de los sistemas de Inteligencia Artificial todavía están en una 
etapa  preliminar.  Desde  los  ejemplos  de  control  de  la  población  -para  identificar  dónde  se 
cumple  la  medida  del  aislamiento  físico  y  dónde  no-,  y  las  aplicaciones  de  evaluación  de 
riesgo,  hasta  la creación de un dispositivo que permite monitorear la frecuencia respiratoria 
de  pacientes  con  COVID-19  de  manera  remota  y  un  sistema  de  IA  para  analizar  miles  de 
trabajos  de  investigación  -publicados  con  acceso  abierto  para  facilitar  los  avances  en  la 
investigación  y  el  trabajo  colaborativo-  sobre  los  efectos  del  virus  en  la  salud,  posibles 

20
  “Llega  la  'app'  que  vigila  a  las  personas  en  cuarentena  por  coronavirus”  por  Max  S.  Kim,  para  MIT 
Technology Review. Publicado el 11 de marzo de 2020. Disponible en: 
https://www.technologyreview.es/s/12009/llega-la-app-que-vigila-las-personas-en-cuarentena-por-coronavi
rus​ (consultado en abril de 2020). 
21
  “De  los  selfies  de  Polonia  a la completa app de Singapur: medidas de vigilancia tecnológica para frenar la 
epidemia”  por  Enrique  Pérez  para  Xataka.  Publicado  el  25  de  marzo  de  2020.  Disponible  en: 
https://www.xataka.com/privacidad/estas-medidas-extremas-vigilancia-tecnologica-que-estan-aplicando-pa
ises-para-frenar-exito-epidemia​ (consultado en abril de 2020). 
22
  “Artificial  intelligence  in  the  fight  against COVID-19”, por Georgios Petropoulos para Bruegel. Publicado el 
23 de marzo de 2020. Disponible en: 
https://www.bruegel.org/2020/03/artificial-intelligence-in-the-fight-against-covid-19/  (consultado  en abril de 
2020). 
23
Ídem. 

 
12 
 
 
 
tratamientos  y  la  dinámica  de  la  pandemia.  La  IA  también  se  puede  aplicar  a la detección y 
eliminación  automáticas  de  “fake  news”  o  campañas de desinformación relacionadas con el 
virus  publicadas  en  redes  sociales  como  Facebook;  pueden  producir  tomografías 
computarizadas  altamente  precisas  y  oportunas  para  la  detección  de  neumonía  inducida 
por  virus;  puede  ser  útil  también  para  optimizar  los  ensayos  clínicos  de  medicamentos  y 
posibles  vacunas;  y  puede  servir  para  desarrollar  sistemas robóticos para desinfectar áreas 
24
infectadas.  

A. Posibles riesgos 
Como  se  mencionó  más  arriba,  todo  sistema  de  Machine  Learning  necesita  cargarse  de 
datos  para  analizar  y  poder  establecer  predicciones,  categorías  o  tomar  decisiones. 
Aplicaciones  como  las  de  detección  de  la  población  y  las  de  evaluación  de  los  riesgos  de 
infección  solicitan  algunos  de  los  siguientes  datos  y  permisos  para  acceder  a  datos  que 
registra  y  almacena  el  dispositivo  móvil:  datos  personales  (que  permitan  identificar  y 
ponerse  en  contacto  con  cada  ciudadano  que  se  registre);  datos  de  ubicación;  acceso  a 
micrófono y cámara del dispositivo; datos de tráfico; datos de salud y datos biométricos. 

En  este  sentido,  es  fundamental  que  en  cada  país  en  que  se  implementen  tecnologías  que 
almacenen  y  analicen  esta  cantidad  y  tipos  de  datos,  las  autoridades se aseguren de que el 
intercambio  de  datos  se  ajuste  a  las  normas  de  privacidad  y  no  genere  riesgos  de  que  los 
datos  de  las  personas  sean  mal  utilizados.  Para  evitar  esto  último,  desde  diversos  sectores 
defensores  del  derecho  a  la  privacidad  -organizaciones  de  la  sociedad  civil  y  académicos- 
sostienen  que estas tecnologías que recolectan datos personales, de salud, biométricos y de 
ubicación,  deben  ser  medidas  de  excepción,  limitadas  en  el  tiempo,  usadas  sólo  bajo 
estricta  necesidad,  implementadas  en  absoluta  transparencia  y  eliminadas  ni  bien  pase  la 
razón  que  justificó  su  uso,  con  la  consiguiente  destrucción  de  registros  que  permitan  o 
habiliten discriminación o afectación de derechos de las personas. 

○ Discriminación arbitraria  

Debido  a  la  escasez  de  recursos  para  realizar  diagnósticos  de  COVID-19,  el  Centro  para  el 
Control  y  la  Prevención  de  Enfermedades  de  los  Estados  Unidos  publicó  una guía sobre los 
25
lineamientos  para  la  prioridad  de  acceso  al  testeo ,  comenzando  por  pacientes 
hospitalizados,  adultos  mayores,  personas inmunosuprimidas y personas que han viajado a 
áreas  conocidas  de  brotes  o  han  estado  expuestas  a  un  caso  confirmado.  Sin  embargo, 
cada  Estado  -que  tiene  su  propio  departamento  de  salud  y  es  autónomo  en  la  toma  de 
decisiones-  está  empleando  sus  propios  algoritmos  y protocolos de prueba, lo que produce 
disparidades en su aplicación concreta a los casos.  

A  raíz  de  esto,  The  Markup,  el medio de comunicación sin fines de lucro que investiga cómo 


las  instituciones  poderosas  utilizan  la  tecnología  para  cambiar  la  sociedad,  publicó  un 

24
Ídem. 
  “Evaluating  and  Testing  Persons  for  Coronavirus  Disease  2019  (COVID-19)”  por  Centers  for  Disease 
25

Control and Prevention. Actualizado el 24 de marzo de 2020. Disponible en: 


https://www.cdc.gov/coronavirus/2019-ncov/hcp/clinical-criteria.html​ (consultado en abril de 2020). 

 
13 
 
 
 
artículo  que  busca  responder  la  siguiente  pregunta:  ¿Cómo los algoritmos eligen a quién va 
26
a  recibir  un  test  de  COVID-19? .  Para  eso,  realizaron  un  pedido  de  acceso  a  la información 
pública  a  los  50  estados  para  tratar  de  conocer  las  diferencias  y  las  razones  por las que un 
27
algoritmo privilegia un caso por sobre otro . 

○ Vulneración de la privacidad 

La  organización  de  la  sociedad  civil  Derechos  Digitales,  que  focaliza  su  trabajo  en 
Latinoamérica,  publicó  un  artículo  en  el  que  enumera  la  serie  de  aplicaciones  y desarrollos 
creados  en  el  marco  de  la  pandemia  para  hacer  frente  al  COVID-19  y  plantea  la  siguiente 
preocupación:  “Aunque  el  contexto  de  emergencia  exija  medidas  extraordinarias,  es 
preocupante  que  más  allá  de  las  declaraciones  de  uso  de  ciertas  tecnologías  no  exista 
claridad  respecto  al  uso,  limitaciones  y  medidas  de  resguardo  en  el  tratamiento  de  datos 
personales  y  sensibles  que  serán  capturados  masivamente  a  través  de  estas 
implementaciones.  En  esa  vaguedad  es  donde  se  instaura  la  posibilidad  de  que  estas 
medidas  excepcionales  no  solamente  se  normalicen,  sino  también  sean  usadas  de  forma 
abusiva  en  detrimento de los derechos humanos para fortalecer mecanismos de vigilancia y 
28
control social.”  

Con  respecto  a  la  posible  solución  de  “anonimización”  de  los  datos,  que  suele  presentarse 
como  una  opción  para  proteger  la  privacidad,  la  ONG  The  Markup  explica  cómo  pueden 
realizarse  procesos  de  “desanonimización”  mediante  la  combinación  de  distintas  bases  de 
datos.  A  comienzos  de  la  década  del  2000,  Latanya  Sweeney,  una  entonces  estudiante  del 
Massachusetts  Institute  of  Technology (MIT) descubrió que, incluso si se remueven datos de 
identificación,  cuando  se  combinan  dos  fuentes  de  datos  distintas,  es  posible  llegar  a 
29 30
personas  identificables .  Es  decir  que  la  anonimización  no  garantiza  privacidad   y  esta 
pérdida  de  privacidad  puede  traer  una  segunda  consecuencia:  Las  aseguradoras  -por 
ejemplo-  podrían  utilizar  los  datos  de  salud  “desanonimizados”  para  discriminar  a  los 
pacientes. 

26
  “Who  gets  a  Coronavirus  test?  We're  asking  every  state  for  its  algorithm”  por  Colin  Lecher  para  The 
Markup. Publicado el 19 de marzo de 2020. Disponible en: 
https://themarkup.org/coronavirus/2020/03/19/who-gets-a-coronavirus-test​ (consultado en abril de 2020). 
27
Al 25 de abril de 2020, el artículo se encontraba en desarrollo. 
28
  “¡El  tecnoptimismo  volvió! En forma de coron-apps” por Alex Argüelles para Derechos Digitales. Publicado 
el 3 de abril de 2020. Disponible en: 
https://www.derechosdigitales.org/14368/el-tecnoptimismo-volvio-en-forma-de-coron-apps/  (consultado 
en abril de 2020). 
29
  SWEENEY,  L.  (2002).  “k-Anonymity:  a  model  for  protecting  privacy”.  International  Journal  on  Uncertainty, 
Fuzziness  and  Knowledge-based  Systems,  10  (5),  pgs.  557-570.  Disponible  en: 
https://epic.org/privacy/reidentification/Sweeney_Article.pdf​ (consultado en abril de 2020). 
30
  “When  is  anonymous  not  really  anonymous?”  por  Sara  Harrison  para  The  Markup.  Publicado  el  24  de 
marzo de 2020. Disponible en: 
https://themarkup.org/ask-the-markup/2020/03/24/when-is-anonymous-not-really-anonymous 
(consultado en abril de 2020). 

 
14 
 
 
 
B. Ejemplos de implementaciones 
Debido  a  la  enorme  tarea  que  significa  enumerar  cada  uno  de  los  desarrollos que se están 
implementando  en  cada  país,  en  este  documento  se  presentan  los casos de las tecnologías 
implementadas  en  China  y  Corea  del  Sur  (por  haber sido los países donde se diagnosticó el 
virus  por  primera  vez);  Estados  Unidos  (por  ser  el  país  que  presenta  la  mayor  cantidad  de 
casos y donde radican las empresas de tecnología más importantes del mundo); y Argentina 
(para analizar nuestro caso local). 

○ China y Corea del Sur 

En  China  se  desarrollaron  aplicaciones  para  dispositivos  móviles  para  controlar  la  salud  de 
las  personas  y  rastrear  la  propagación  geográfica  del  virus.  Estas  aplicaciones  buscan 
predecir  qué  poblaciones  y  comunidades  son  más  susceptibles a los impactos negativos de 
un  brote  de  coronavirus.  Pero,  además,  se  desplegó  el  uso  de  escáneres  de  imágenes 
infrarrojas  tradicionales  y  termómetros  de  mano  en  múltiples  ubicaciones  públicas,  como 
estaciones  de  subterráneos  y  trenes.  Según  afirman  quienes  defienden  el  uso  de  este  tipo 
de  tecnologías,  la  ventaja  de  estos  sistemas  es  que,  en  minutos,  pueden  examinar  a  las 
personas a distancia para detectar fiebre. 

A  comienzos  de  marzo,  el  Ministerio  del  Interior  y  Seguridad  de  Corea  del  Sur  había 
comenzado  a  utilizar  “​Self-quarantine  app​”,  una aplicación para monitorear a los ciudadanos 
en  cuarentena  que,  además,  permite  que  las  personas  que  no  deben salir de su casa estén 
en  contacto  con  trabajadores  sociales  e  informen  sobre  su  progreso.  El  objetivo  es 
asegurarse de que cumplan la cuarentena. Además, se utilizan registros de transacciones de 
tarjetas  de  crédito,  datos  de  ubicación  de  dispositivos  móviles  (como  datos  de  red  y GPS) y 
31
cámaras  CCTV  para  rastrear  casos  confirmados.  El  resultado  es  un  mapa   que  puede 
decirles  a  las  personas  si  se  han  acercado  a  un portador de coronavirus o no. En esta línea, 
32 33
proliferaron  varias  aplicaciones   para  obtener  información  como  CoronaNow   o 
Corona100,  y  estos  datos  se  publican  y  se  muestran  en  distintas  aplicaciones,  a  través  de 
una API dedicada. 

En  el  continente  asiático,  otros  países  que  están implementando tecnologías para combatir 


el  avance  de  los  contagios  de  COVID-19,  son  Singapur  y  Hong  Kong.  En  el  primer  caso,  el 
gobierno  presentó  una  aplicación  llamada  ​TraceTogether ​que utiliza la señal Bluetooth entre 
dispositivos  móviles  para  identificar  si  personas  potencialmente  infectadas  estuvieron  en 

31
Ver: h
​ ttps://coronamap.site/​ (consultado en abril de 2020). 
32
  "South  Koreans  find  creative  ways  to  combat  Covid-19"  por  Chang  May  Choon  para  The  Straits  Times. 
Publicado el 23 de marzo de 2020. Disponible en: 
https://www.straitstimes.com/asia/east-asia/s-koreans-find-creative-ways-to-combat-covid-19  (consultado 
en abril de 2020). 
33
Puede verse acá: 
https://www.mois.go.kr/frt/bbs/type002/commonSelectBoardArticle.do;jsessionid=7bA+UtY0JOIXJytznXoyY
NHR.node40?bbsId=BBSMSTR_000000000205&nttId=76155  

 
15 
 
 
 
34
contacto  con  otras.   Por  su  parte,  el  Estado  de  Hong  Kong  dispuso  que  las  personas  que 
deban  estar  en  cuarentena  utilicen  una  pulsera  inteligente  conectada  al  celular  para 
detectar automáticamente si incumplen la medida. 

Es  menester  destacar  que  estos  países,  que  suelen  citarse  como  ejemplos  exitosos  de 
contención  de  la  pandemia  a  la  fecha,  realizaron  importantes  inversiones  en  capacidad  de 
testeo  proactivo,  en  infraestructura  para  responder  a  los  casos,  pusieron  a  disposición 
información  confiable  en  forma  coordinada  e  impusieron  el  aislamiento  de  individuos  y 
grupos  infectados.  Estos  elementos  resultan  vitales  a  la  hora  de  otorgar  una  respuesta 
efectiva  al  avance  del  SARS-CoV-2  y  la  respuesta  digital significa sólo una pequeña parte. La 
tecnología  sola,  sin  todo  el  otro  conjunto  de  medidas,  no  era  suficiente  para  alcanzar  los 
resultados  necesarios.  Esto  es  fundamental  tenerlo  presente  porque  la  situación  de 
emergencia  no  debe  habilitar  la  profundización  de  sistemas  de  control  social,  opacos  y  sin 
mecanismos de rendición de cuentas. 

○ Estados Unidos 

Según  publicó  The  Washington  Post  el  17  de  marzo  de  2020  -apenas dos días antes de que 
en  Argentina  se  anunciara  la  medida  de  Aislamiento  Social,  Preventivo  y  Obligatorio  para 
combatir  el  contagio  del  COVID-19-,  el  gobierno  norteamericano  había  comenzado  a 
trabajar  con  Google,  Facebook  y  otras  empresas  para  diseñar  un  plan que permita usar los 
datos  de  ubicación  de  las  personas  desde  aplicaciones  de  sus  dispositivos  móviles  para 
ayudar a combatir la propagación de la pandemia. 
35
El  mismo  día, el MIT Media Lab presentó una aplicación llamada Private Kit: Safe Paths  que 
comparte  información  sobre  los  movimientos  de  los  usuarios  para  avisar  si  se  estuvo  en 
contacto  con  personas  con  COVID-19,  según  explicó  Ramesh  Raskar,  el  líder  del  equipo. 
Además,  dice, el objetivo es ayudar a las autoridades a controlar puntos críticos que puedan 
convertirse  en  focos  del  brote  y  lo  haría  preservando  la  privacidad  de  los  usuarios 
compartiendo  “los  datos  cifrados  de  ubicación  entre  distintos  teléfonos  en  una  red  de  tal 
manera  que  no  pasan  por  una  autoridad  central”,  ya  que  utilizaría  la  tecnología  de  cadena 
36
de bloques (​blockchain​) . 

Esto  sería  similar  a  lo  que  hicieron  los  gobiernos  de  China  y  Corea  del  Sur,  aunque en este 
caso  los  datos  tomados  de  los  teléfonos  celulares  serían  anónimos  y  no  afectarían  la 

34
  "TraceTogether  -  behind  the  scenes  look  at  its  development  process"  publicado  el  25  de  marzo de 2020 
en el sitio oficial GOVTECH de Singapur. Disponible en: 
https://www.tech.gov.sg/media/technews/tracetogether-behind-the-scenes-look-at-its-development-proces
s​ (consultado en abril de 2020). 
35
Se puede consultar en h ​ ttp://safepaths.mit.edu/  
36
  "El  MIT  lanza  una  'app'  que  le  avisa  si  se  ha  cruzado  con  algún  infectado",  por  Will  Douglas  Heaven  (y 
traducido  por  Ana  Milutinovic)  para  MIT  Technology  Review.  Publicado  el  23 de marzo de 2020. Disponible 
en: 
https://www.technologyreview.es/s/12033/el-mit-lanza-una-app-que-le-avisa-si-se-ha-cruzado-con-algun-inf
ectado​. Artículo original, en inglés: 
https://www.technologyreview.com/s/615372/coronavirus-infection-tests-app-pandemic-location-privacy/ 
(consultado en marzo de 2020). 

 
16 
 
 
 
privacidad.  En  el  caso  de  las  medidas  que  tomaron  los  países  asiáticos,  la  característica 
principal  es  la  implementación  de  mecanismos  de  control  que  no  respetan  derechos 
individuales  de  las  personas. Estas medidas, que también se están impulsando en países de 
América  Latina,  se  toman  siguiendo  la  urgencia  que  imponen  los  números  de  la  pandemia 
-entre  aumento  de  casos  y  de  fallecidos-  y  no  están  siendo  producto de un debate social ni 
en el marco de sesiones legislativas. 

Un  ejemplo  visual  de  lo  que  se  consigue  a  partir  de  los  datos  de  ubicación  de las personas 
es  el  que  se  conoció  a  mediados  de  marzo  a  través de un artículo de ​The New York Times ​en 
el  que  se  ve  cómo  el  virus  salió  de  Wuhan  (China)  y  llegó  a  otros  países  del  mundo,  entre 
37
ellos  los  Estados  Unidos  y  cómo  se  propagó  dentro  de  este  último .  Para  este  artículo  se 
utilizaron  los  datos  de  patrones  de  viajes  dentro de China basados en datos publicados por 
38
Baidu  y  datos  de  dos  compañías de telecomunicaciones chinas ​. Ambas fuentes rastrearon 
los movimientos de los teléfonos celulares. 

Al  igual  que  en  los  casos  expuestos  anteriormente,  el  objetivo  de  utilizar  los  datos  de 
ubicación  es  determinar  la  probabilidad  de  transmisión  de  la  enfermedad  entre  diferentes 
regiones y alertar si las personas cumplen las medidas de distanciamiento requeridas. 

Por  otro  lado,  en  los  Estados  Unidos  se  observa  el  uso  de  Inteligencia  Artificial  para  armar 
bases  de  datos  de  ​papers  ​académicos,  como  es el caso de CORD-19 Open Research Dataset
39
,  del  equipo  de The Semantic Scholar, que es un recurso abierto de más de 57 mil artículos 
de  literatura  académica  sobre  COVID-19,  SARS-CoV-2  y  el  grupo  Coronavirus  para  ser 
utilizados  por  la  comunidad  de  investigadores  a  nivel  mundial.  El  proyecto  lo  llevan  a  cabo 
investigadores  y  líderes  del  Instituto  Allen  para  IA,  la  Iniciativa  Chan  Zuckerberg  (CZI),  el 
Centro  de  Seguridad  y  Tecnología  Emergente  (CSET)  de  la  Universidad  de  Georgetown, 
Microsoft  y  la  Biblioteca  Nacional  de  Medicina (NLM) y la base de datos está compuesta por 
artículos  de  investigación  de  revistas  revisadas  por  pares,  y  también  otras  fuentes  como 
bioRxiv  y  medRxiv  (sitios  web  donde  los  científicos  pueden  publicar  trabajos  sin  revisión 
previa).  Este  desarrollo  fue  una  respuesta  a  la  llamada  que  hizo  la  Casa  Blanca  de  los 
Estados  Unidos  para  que  expertos  en  Inteligencia  Artificial  desarrollen  nuevas  técnicas  de 
extracción  -o  minería-  de  datos  y  texto  que  puedan  ayudar  a  la  comunidad  científica  a 
responder preguntas científicas de alta prioridad relacionadas con COVID-19. 

Las  tareas  para  cumplir  con  el  objetivo  se  distribuyeron  de  la  siguiente  manera,  según  se 
relata  en  una  declaración  conjunta  publicada  por  la  Oficina  de  Políticas  de  Ciencia  y 
40
Tecnología  de  la  Casa  Blanca :  “Las  herramientas  de  curación  de literatura a escala web de 

37
  “How  the  virus  got  out”  por  Jin  Wu,  Weiyi  Cai,  Derek  Watkins  y  James  Glanz para The New York Times, el 
22 de marzo de 2020. Disponible en: 
https://www.nytimes.com/interactive/2020/03/22/world/coronavirus-spread.html?referringSource=articleSh
are​ (consultado en marzo de 2020). 
38
  Publicadas  por  Cao  et  al.,  “Incorporating  Human  Movement  Data  to  Improve  Epidemiological  Estimates 
for 2019-nCoV.”, citado en el artículo. 
39
Ver: h​ ttps://www.semanticscholar.org/cord19​ (consultado en abril de 2020). 
40
  “Call  to  Action  to  the  Tech  Community  on  New  Machine  Readable  COVID-19  Dataset”  publicado  por  la 
Oficina de Políticas de Ciencia y Tecnología de la Casa Blanca de los Estados Unidos el 16 de marzo de 2020. 
Disponible en: 

 
17 
 
 
 
Microsoft  se  utilizaron  para  identificar  y reunir esfuerzos y resultados científicos mundiales; 
CZI  proporcionó  acceso  a  contenido  previo  a  la  publicación;  NLM  proporcionó  acceso  a 
contenido de literatura; y el equipo de Allen AI transformó el contenido en una forma legible 
por máquina, preparando el corpus para su análisis y estudio”. 

Como  se  explica  en  un  artículo  del  MIT  Technology  Review,  el  sistema  “utiliza  modelos  de 
lenguaje  natural  de  última  generación como ELMo y BERT para mapear las similitudes entre 
41
los  documentos.”   Además,  al  hacer  referencias  cruzadas  de  documentos  y  buscar 
patrones,  los  algoritmos  de  IA  pueden  ayudar  a  descubrir  nuevos  posibles  tratamientos  o 
factores  que  empeoran  el  virus  para  algunos  pacientes.  La  esperanza  es que la Inteligencia 
Artificial  acelere  los  conocimientos sobre el nuevo coronavirus al encontrar conexiones más 
sutiles  en  más  datos.  Sin embargo, “algunos expertos dicen que el enfoque se encuentra en 
42
una etapa temprana y es poco probable que ayude a abordar la crisis actual.”  

Otro  caso  que  se  conoció  a  mediados  de  abril  es el de Emerald, un dispositivo desarrollado 


por  el  Laboratorio  de  Inteligencia  Artificial  y  Ciencias  de  la  Computación  (CSAIL)  del  MIT, 
similar  a  un  router wifi grande que se coloca en la pared, que “permite hacer monitoreos de 
la  frecuencia  respiratoria  de  los  pacientes  con  COVID-19  de  forma  remota”.  Para  eso,  este 
sistema  emite señales inalámbricas, que se reflejan en los pacientes y utiliza IA para analizar 
43
esos datos e inferir los patrones de respiración, movimiento y sueño del paciente.  

Por  su  parte,  Google  y  Apple  se encuentran trabajando en el desarrollo de una API para iOS 


y  Android  que  utilizará  Bluetooth  para  rastrear  contactos  que  estuvieron  cerca  y  que  se 
44
hayan  contagiado  con  COVID-19 .  En  este  caso,  si  la  persona  estuvo  expuesta  al  virus, 
recibirá  un  aviso  en  su  teléfono  y  la  aplicación  funcionaría  sin  tener  que  entregar  datos  de 
localización  ni  datos  personales  que  permitan  identificar  a  cada  usuario.  Una  vez  al  día,  el 
dispositivo  obtendría  una  nueva  clave  (“clave  de  seguimiento  diario”).  La  primera  fase  del 

https://www.whitehouse.gov/briefings-statements/call-action-tech-community-new-machine-readable-covi
d-19-dataset/​ (consultado en abril de 2020). 
41
  “La  nueva  arma  contra  el  COVID-19:  una  web  con  más  de 24.000 ‘papers’”, por Karen Hao (traducido por 
Ana Milutinovic) para MIT Technology Review. Publicado el 19 de marzo de 2020. Disponible en: 
https://www.technologyreview.es/s/12030/la-nueva-arma-contra-el-covid-19-una-web-con-mas-de-24000-p
apers​ (consultado en abril de 2020). 
42
  “Researchers  will  deploy  AI  to  better understand coronavirus” por Will Knight para Wired. Publicado el 17 
de marzo de 2020. Disponible en: 
https://www.wired.com/story/researchers-deploy-ai-better-understand-coronavirus/ (consultado en abril de 
2020). 
43
  “EEUU:  desarrollaron  un  dispositivo  que  emplea  señales  wifi  e  inteligencia  artificial  para  monitorear  de 
forma  remota  a  pacientes  con  coronavirus”  por  Desirée Jaimovich para Infobae. Publicado el 16 de abril de 
2020. Disponible en: 
https://www.infobae.com/america/tecno/2020/04/16/eeuu-desarrollaron-un-dispositivo-que-emplea-senale
s-wifi-e-inteligencia-artificial-para-monitorear-de-forma-remota-a-pacientes-con-coronavirus/  (consultado 
en abril de 2020). 
44
  “Así  funciona  la  herramienta  de  rastreo  de  coronavirus  de  Apple  y  Google”  por  J.  M.  Sánchez  para  ABC. 
Publicado el 17 de abril de 2020. Disponible en: 
https://www.abc.es/tecnologia/informatica/software/abci-funciona-proyecto-aplicacion-rastreo-coronavirus
-apple-y-google-202004150156_noticia_amp.html​ (consultado en abril de 2020). 

 
18 
 
 
 
45
proyecto  de  Google/Apple  consiste  en  que  cada  usuario  descargue  la  aplicación   y  el 
consentimiento  de  gobiernos  y  usuarios  sería  obligatorio  para  el  uso  de  las  aplicaciones. 
Durante  la  segunda  fase,  la  función  de  esta  aplicación  se  replicaría  en  una actualización de 
cada  sistema  operativo  de  Android  o  iPhone,  es  decir  que  ya  no  dependería  de la voluntad 
del usuario de instalar la aplicación en su dispositivo. 

○ Argentina 

En  Argentina,  el  20  de  marzo  de  2020  comenzó  a  regir  el  Decreto  de  Necesidad  y Urgencia 
297/2020  firmado  por  el  presidente  Alberto  Fernández,  a  través  del  que  aprobó  la  medida 
de  “Aislamiento  Social,  Preventivo  y  Obligatorio”  para  disminuir  y  evitar  el  contacto  entre 
personas  y,  así,  reducir  las  posibilidades  de  contagio  del  SARS-CoV-2,  en  pos de proteger la 
46
salud  pública.   El  lunes  23  de  marzo  la  Secretaría  de  Innovación  Pública  que  depende  de 
Jefatura  de  Gabinete  de  la  Nación,  presentó  un  formulario  publicado  en  la  web  y  una 
47
aplicación  bajo  el  nombre  de “Autoevaluación de síntomas de Coronavirus COVID-19” , que 
fue  cuestionada  por  una  parte  de  la  comunidad  de  seguridad  informática  del  país  por 
solicitar  demasiados  datos  personales  y  permisos  de  la  aplicación  que  resultaban 
48
desproporcionados  de  acuerdo  al  objetivo  del  sistema.   La  aplicación,  desde  su 
lanzamiento,  se  impuso  como  de  uso  obligatorio  para  toda  persona  que  ingrese  al  país, 
para  monitorear  el  cumplimiento  de  la  cuarentena,  y  de  uso  voluntario  para  las  personas 
que  quisieran  controlar  si tenían alguno de los síntomas asociados al Coronavirus COVID-19 
y que estaban cumpliendo con el aislamiento obligatorio. 

El  lunes  27  de  abril se lanzó una actualización de esta aplicación -debido a las fallas técnicas 


y  de  diseño  que  se  habían  cuestionado-,  llamada  CuidAR  que, para registrarse es necesario 
habilitar  la geolocalización e ingresar el DNI: “El objetivo de esta segunda versión es permitir 
la  autoevaluación  de  síntomas  en  pocos  pasos  y  sumar  la  posibilidad  de  añadir  al 
Certificado  Único  Habilitante  de  Circulación  (CUHC),  un  código  que  muestra  que  el 
ciudadano  o  la  ciudadana  está  habilitado/a  para  movilizarse,  siempre  y  cuando  en  el 
autoexamen  no  se  detecten  síntomas  de  Covid-19.  En  el  caso  de  existir  síntomas 
compatibles,  la  información  llega  a  los  comités  de  emergencia  de  salud  de  cada  provincia 
para  que  se  contacten  con  el  usuario  y  reciba  atención  médica”,  explican  en  Ámbito. 
Además,  “una  vez  que  la  persona  manifiesta  síntomas,  la  app  advierte  que  debe 
49
permanecer totalmente aislado y si posee un certificado de circulación se inhabilita.”  

45
Ver informe: h ​ ttps://www.apple.com/covid19/contacttracing/  
46
El documento está disponible en: 
​https://www.boletinoficial.gob.ar/detalleAviso/primera/227042/20200320​ (consultado en abril de 2020). 
47
  A  los  pocos  días,  el  formulario  dejó  de  estar  disponible  y  sólo  quedó  el  acceso  a  la  descarga  de  la 
aplicación para sistemas operativos iOS y Android. Disponible en: 
https://www.argentina.gob.ar/aplicaciones/coronavirus​ (consultado en abril de 2020). 
48
  En  este  hilo  de  Twitter  que  publiqué  desde  mi  cuenta personal participaron varios técnicos especialistas 
en seguridad informática y abogados especialistas privacidad: 
https://twitter.com/titayna/status/1242225565219815436?s=20​ (publicado el 23 de marzo de 2020). 
49
  “Presentan  CuidAR,  la  nueva  versión  de  la  app  Coronavirus  Argentina”  por  Ámbito.  Publicado  el  26  de 
abril de 2020. Disponible en: 

 
19 
 
 
 
La  aplicación  fue  desarrollada  en  conjunto  entre  la  Secretaría  de  Innovación  Pública 
-siguiendo  los  requerimientos  y  necesidades  del  Ministerio  de  Salud-,  el  Ministerio  de 
Ciencia  y  Tecnología  de  la  Nación,  la  Fundación  Sadosky,  el  Consejo  Nacional  de 
Investigaciones  Científicas  y  Técnicas  (CONICET)  y  la  Cámara  de  la  Industria  Argentina  del 
Software  (CESSI),  que  nucleó  a  las  empresas  Hexacta,  Globant,  G&L  Group,  C&S, QServices, 
GestiónIT,  Intive,  Finnegans  y  Faraday.  El  equipo  se  complementa con el trabajo de Arsat, la 
empresa  de  telecomunicaciones  del  Estado,  y  los  servicios  brindados  por  Amazon  Web 
Services, RedHat Argentina, Thinkly y Biodyn SAS. 
50
Unos  días  más  tarde,  el  5  de  mayo,  a  través  de  la  Disposición  3/2020   de  la  Subsecretaría 
de  Gobierno  Abierto  y  País  Digital  que  depende  de  la  Jefatura  de  Gabinete  de Ministros, se 
creó  la  Base  de  Datos  denominada  “COVID-19  Ministerio  de  Salud”  con  la  finalidad  de 
centralizar  los  datos  recabados  por  la  aplicación,  lo  que  abrió  un  nuevo  debate  sobre  la 
protección de los datos y de la información sensible de la población. 

Por  su  parte,  la  empresa  Urbetrack  desarrolló  “Cuidate  en  casa”,  otra  aplicación  disponible 
para  los  sistemas  operativos iOS y Android que utiliza la tecnología del GPS para alertar si la 
51
persona  no  cumple  con  el  aislamiento  obligatorio.   Algo  similar  decidió  la  Justicia en Santa 
Fe,  para  las  personas  que  hubieran  incumplido  con  el  aislamiento  obligatorio  en  las 
ciudades  de  Santa  Fe  y  Rosario,  que  deberán  instalar  obligatoriamente  la  aplicación  en sus 
52
celulares.  

Otra  medida  de  carácter  obligatorio  fue  tomada  a  mediados  de  abril  en  Tierra  del  Fuego, 
donde,  además  de  que  se  limitó  el  tiempo  para  salir  a  realizar  compras  a  tres  horas,  se 
instaló  un  sistema  de  monitoreo  con  un código QR que está en verde si la persona que está 
circulando  está  dentro  del  periodo  permitido  y  que  se  pone  en  rojo  si  se  le  venció  ese 
53
tiempo .  En  el  caso  de  los  datos  y  permisos  solicitados,  también  resultan 

https://www.ambito.com/informacion-general/app/presentan-cuidar-la-nueva-version-la-app-coronavirus-a
rgentina-n5098353  (consultado  en  abril  de  2020)  y  “CuidAR:  cómo es la nueva aplicación del gobierno para 
autodiagnóstico  y  rastreo  del  Covid-19”  por  Ámbito.  Publicado  el  18  de  abril  de  2020.  Disponible  en: 
https://www.ambito.com/informacion-general/covid-19/cuidar-como-es-la-nueva-aplicacion-del-gobierno-a
utodiagnostico-y-rastreo-del-covid-19-n5096581​ (consultado en abril de 2020). 
50
  Ver:  ​https://www.boletinoficial.gob.ar/detalleAviso/primera/228730/20200506  (consultado  en  mayo  de 
2020). 
51
  “Crean  app  para  vigilar  que  las  personas  cumplan con la cuarentena” por Leandro Ferreyra para Ámbito. 
Publicado el 31 de marzo de 2020. Disponible en: 
https://www.ambito.com/negocios/app/crean-app-vigilar-que-las-personas-cumplan-la-cuarentena-n50925
02​ (consultado en abril de 2020). 
52
  “Controlarán  a  quienes  incumplieron  el  aislamiento  con  una  app  en  sus  celulares”  por  La  Capital. 
Publicado el 23 de marzo de 2020. Disponible en: 
https://www.lacapital.com.ar/la-ciudad/controlaran-quienes-incumplieron-elaislamiento-una-app-sus-celula
res-n2572740.html​ (consultado en abril de 2020). 
53
 “El gobierno limitará a 3 horas el tiempo para hacer compras y lo controlará por una app” por El diario del 
fin del mundo. Publicado el 22 de abril de 2020. Disponible en: 
http://www.eldiariodelfindelmundo.com/noticias/2020/04/22/86406-el-gobierno-limitara-a-3-horas-el-tiemp
o-para-hacer-compras-y-lo-controlara-por-una-app​ (consultado en abril de 2020). 

 
20 
 
 
 
desproporcionados  en  cuanto  al  objetivo  que  debería  alcanzarse,  que  es  el  cumplimiento 
del aislamiento y distanciamiento físico de la población. 

El  20  marzo  de  2020,  el  Financial  Times  publicó  una  columna  del  historiador  israelí,  Yuval 
54
Noah  Harari,  titulado  “El  mundo  después  del  coronavirus” .  Allí  describe  el difícil escenario 
en  el  que  nos  encontramos  las  sociedades,  ya  que  estamos  en  un  contexto  en  el  que 
debemos  actuar  con  rapidez  y  decisión  pero  debemos  tener  en  cuenta las consecuencias a 
largo  plazo  de  nuestras  acciones.  “En  este  momento  de  crisis,  enfrentamos  dos  opciones 
particularmente  importantes  -dice-.  El  primero  es  entre  la  vigilancia  totalitaria  y  el 
empoderamiento  ciudadano. El segundo es entre el aislamiento nacionalista y la solidaridad 
global”.  Como  afirma  Harari,  al  elegir  entre  alternativas,  debemos  tener en cuenta que esta 
tormenta  pasará,  pero  las  decisiones  que  tomemos  y  las  elecciones  que  hacemos  ahora 
podrían cambiar nuestras vidas en los próximos años. 

II. Desarrollos  e  implementaciones  de  IA  en  salud  en 


Argentina 

A. Gobierno  de  Salta  (2018):  predicción  de  embarazo 


adolescente 
Un  caso  que  se  hizo  muy  popular  por  el  hecho  de  ser  un  desarrollo  que  se  promovía 
directamente  desde  un  gobierno  provincial  fue  el  del  modelo  predictivo  de  embarazo 
adolescente  que  la  provincia  de  Salta  desarrolló  en  2018,  con  el  apoyo  de  Microsoft  -a 
través  de  su  sistema  Azure-,  a  través  del  que  se  había  identificado  a  397  jóvenes  con  alto 
riesgo  provenientes  de  barrios  de  menores  ingresos,  de  un  total  de 3000 adolescentes que 
55
formaron  parte  de  la prueba piloto . El Ministro de la Primera Infancia indicó que se habían 
entregado  los  resultados  a  las  “áreas  correspondientes”  del  gobierno  para  desarrollar  un 
plan  de  acción  con  un  “abordaje  integral”  dirigido  a  las  adolescentes,  aunque  no  detalló 
cómo  se  informaba  sobre  el  particular  a  las  menores.  Esto  generó  una  serie  de críticas por 
parte  de  académicos  y  organizaciones  de  la  sociedad  civil,  que  denunciaron  el  riesgo  de 
estigmatización y afectación de la privacidad de las jóvenes. 

El  responsable  de  ese  proyecto,  Pablo  Abeleira,  coordinador  de  tecnología  en  el  ministerio 
56
de  Primera  Infancia  de  Salta,  explicó  cómo  surgió  el  proyecto :  “Venimos trabajando en un 

54
  “Yuval  Noah  Harari:  the  world  after coronavirus” para Financial Times. Publicado el 20 de marzo de 2020. 
Disponible  en:  ​https://www.ft.com/content/19d90308-6858-11ea-a3c9-1fe6fedcca75  (consultado  en  mayo 
de 2020). La traducción es propia. 
55
  “Algoritmos  e  inteligencia  artificial  en  Latinoamérica.  Un  estudio  de  implementaciones  por  parte  de 
Gobiernos  en  Argentina  y  Uruguay”  por  Juan  Ortiz  Freuler  y  Carlos  Iglesias  para  la  World  Wide  Web 
Foundation. Publicado en septiembre de 2018. Disponible en: 
https://webfoundation.org/docs/2018/09/WF_AI-in-LA_Report_Spanish_Screen_AW.pdf  (consultado  en  junio 
de 2020). 
56
  “Cómo  funciona  el  sistema para ‘predecir embarazos adolescentes’ de Salta” por Félix Ramallo para UNO. 
Publicado el 12 de abril de 2018. Disponible en: 

 
21 
 
 
 
proyecto  para  hacer  un  modelo  centrado  en  las  personas  y  en  la  parte  social.  Con  un 
sistema  tecnológico  en  donde  hacemos  un  relevamiento  casa  por  casa,  y  con  aprobación 
del  jefe  de  hogar  que  firma  un  consentimiento,  en  donde  se  toma  información 
multidimensional:  trabajo,  salud,  máximo  nivel  educativo,  entre  otros  datos. Llegamos a un 
punto  en  donde  teníamos  un  proyecto  de  big  data  y  recurrimos  a  esta  tecnología  para 
poder  predecir  situaciones  antes  de  que  ocurrieran.  Comenzamos  con  dos  temáticas: 
embarazo  adolescente  y  deserción  escolar.  Firmamos  un  convenio  con  Microsoft,  envió 
varios ingenieros y creamos un modelo para predecir estas situaciones”. 

Abeleira  aclaró  que  Microsoft  no  accedía  a  ningún  dato  personal  porque  todo  estaba 
encriptado  y  blindado  en  los  servidores,  sino  que  accedían  sólo  a  un  set  de  datos  que 
trabajaban  con  ingenieros  del  gobierno  provincial.  Según  su  relato,  los  datos  fueron 
recolectados  a  partir  de  un  relevamiento  que  hicieron  con  un  dispositivo  móvil  casa  por 
casa  y  esos  datos  se  almacenaban  en  los  servidores  de  la  provincia.  “Todos  los  jefes  de 
hogar  firman  el  consentimiento  y  se  explica  el  uso  de  la  información.  Sino  no  se toman los 
datos”,  explicó  con  respecto  al  consentimiento  para  el  uso  de  datos  de  las  adolescentes 
menores de edad. 

Desde  el  Laboratorio  de  Inteligencia  Artificial  Aplicada  (LIAA)  del  Departamento  de 
Computación  de  la  Facultad  de  Ciencias  Exactas  de  la  Universidad  de  Buenos  Aires  (UBA) 
publicaron  un  documento  en  el  que  afirman  que  encontraron  “serios  errores  técnicos  y 
conceptuales,  que  ponen  en  duda  los  resultados  reportados  y  comprometen  el  empleo  de 
dicha  herramienta,  sobre  todo  tratándose  de  una  cuestión  tan  sensible  como  el  embarazo 
57
adolescente” . 

Algunos de los problemas más graves que encontraron, son: 

1. Resultados artificialmente sobredimensionados. 


2. Datos posiblemente sesgados. 
3. Datos inadecuados. 

“Tanto  los  problemas  metodológicos  como  los  datos  poco  confiables  plantean  el  riesgo  de 
llevar a tomar medidas incorrectas a los responsables de políticas públicas”, concluyen. 

https://uno.com.ar/tecnologia/como-funciona-el-sistema-para-predecir-embarazos-adolescentes-de-salta-0
4122018_rJxfqbraiM​ (consultado en junio de 2020). 
57
  “Sobre  la  predicción  automática  de  embarazos  adolescentes”  por  Laboratorio  de  Inteligencia  Artificial 
Aplicada  (LIAA)  del  Departamento  de  Computación  de  la  Universidad  de  Buenos  Aires.  Publicado  el  12  de 
abril de 2018. Disponible en: 
https://www.facebook.com/LIAA.UBA/posts/619549255056965?__xts__%5B0%5D=68.ARDp-BfPrqTXRBMgG
QMOj5DaBD3PB8m91h03Xb7EQDsviJ8suEGIx0C-QTPKyfv50NC6EHFYF2tWLcIwO4mJlMOdnuc1O86b6XlMA
N2KwBgiKmY1Fl9hu3grvmMBtCsbrCtG1auourfjD3MLiFnhNAQtVZL3ilpQZvbGFgECHAxG9n_mZHRkxQF94w
DOMu2NSiiPV9jqxT4JOxHssbygX6FmNeDxw0T_7FFvxA1rESfj5ukcjMc-5FHz6_TyORL6lfmpavtkaPmOZFuZuW
Tq7M1V3wbdMeQdEm7whUF37vuwGfQbghPn3EiLPWpZGV6YIdVJGuKNFWViUFOMHGUpP_E&__tn__=-R  y 
en 
https://www.dropbox.com/s/r7w4hln3p5xum3v/%5BLIAA%5D%20Sobre%20la%20predicci%C3%B3n%20aut
om%C3%A1tica%20de%20embarazos%20adolescentes.pdf?dl=0​ (consultado en junio de 2020). 

 
22 
 
 
 
B. LIAA  y  Entelai:  Análisis  de  imágenes  para  detección  de 
enfermedades y análisis de las palabras en psiquiatría 
Diego  Fernández  Slezak  es  doctor  en  Ciencias  de  la  Computación,  se  dedica  a  la 
58
investigación  en  Inteligencia  Artificial  y  neurociencia,  forma  parte  del  LIAA   y  es 
59
co-fundador  de  Entelai ,  empresa  que  ofrece  soluciones  de  IA  para  mejorar  el  trabajo  de 
los médicos. 

En  una  entrevista  realizada  para  el  presente  trabajo,  Fernández  Slezak  explica  cómo  el 
desarrollo  de  IA  puede  aportar  al  trabajo  de  médicos  especialistas  que  necesitan  analizar 
imágenes  (resonancias  y  mamografías,  por  ejemplo)  y  hacer  reportes.  Desde  el  LIAA,  por 
ejemplo,  están  trabajando  en  el  análisis  de  imágenes  médicas  dentro  del  sistema  de 
reportes  médicos.  En  la  actualidad,  cuenta,  los  especialistas  en  imágenes  deben  analizar  y 
hacer  entre  10  y  30  reportes  por  día,  en  el  caso  de  resonancias  de  cerebro,  y  entre 30 y 60 
reportes  por  hora,  en  el  caso  de  mamografías  (es  decir,  una  por  minuto  o  una  cada  dos 
minutos).  Para  estos casos, la empresa Entelai está desarrollando una solución que se llama 
60
Entelai  Pic ,  donde  el  médico,  además  de  ver  la  resonancia  magnética  o  la mamografía, ve 
un  preinforme  que  le  indica  a  qué  zona  prestarle  atención  y  le  marca  dónde  están  las 
61 62
lesiones  en  la  resonancia .  Al  momento  de  la  entrevista ,  se  encontraba  en  etapa  de 
63
investigación,  en colaboración con FLENI  que es quien provee las imágenes de resonancias 
magnéticas del cerebro. 

Además,  en  el  marco  de  la  pandemia  por  coronavirus,  Entelai  se basó en este sistema para 
desarrollar  la  herramienta  de  IA  Entelai  Pic  Covid-19,  que  permite  analizar  con  precisión  y 
velocidad  un  enorme  número  de  radiografías  de  tórax.  “Contamos  con  un  software  de  IA 
para  la  detección  de  neumonía  o  infección  de  los  pulmones a partir del análisis de miles de 
imágenes.  Y  buscamos  modificar  el  algoritmo  para  detectar  la  nueva  patología”,  explica 
Mauricio  Farez,  director  del  Centro  para  Enfermedades  Neuroinmunológicas  del  sanatorio 
Fleni y cofundador de Entelai junto a Diego Fernández Slezak. Farez aclara que la plataforma 
sirve para asistir a los médicos pero no debe tomarse como un diagnóstico en sí misma. 

Para  que  funcione  esta  herramienta,  “el  sanatorio,  hospital  o  clínica  tiene  sus  imágenes  en 
un  servidor  al  que  se  conecta  el  sistema  de  Entelai  para  analizarlas  y  automáticamente,  se 
genera  una  etiqueta  que  indica  si  el estudio es normal o muestra alguna patología”. En este 
caso,  corresponde  al  médico  especialista  revisar  la  imagen  nuevamente para el diagnóstico 
final.  “Pusimos  a disposición la plataforma a través de una web para que profesionales de la 
Argentina,  Colombia  y  Chile  suban  imágenes  y  obtengan  un  resultado  en  pocos  segundos. 

58
Ver: h
​ ttp://liaa.dc.uba.ar/es/inicio/​ (consultado en junio de 2020). 
59
Ver: h​ ttps://entelai.com/​ (consultado en junio de 2020). 
60
Se puede consultar más sobre el proyecto en: 
https://www.mia.gob.ar/proyectos/724/Entelai-Pic-inteligencia-artificial-para-el-analisis-de-imagenes-medic
as​ (consultado en mayo de 2020). 
61
  “07  -  IA,  desde  la  computación  y  la  filosofía  -  Sol  Terlizzi  y  Diego  Fernández  Slezak”,  minuto  11:20. 
Disponible en: h ​ ttps://www.youtube.com/watch?v=UjDzAQiNWu0  
62
El 5 de diciembre de 2019. 
63
Fundación para la Lucha contra las Enfermedades Neurológicas de la Infancia. 

 
23 
 
 
 
Llevamos  más  de  2000  radiografías  analizadas  en  las  primeras  tres  semanas  de  puesta  en 
marcha”, explicó. 

Para  entrenar  el  algoritmo  obtuvieron  alrededor  de  100  imágenes  de  pacientes 
confirmados  con  COVID-19  y  otros  pacientes  con  neumonías  similares,  así  como  un  grupo 
control  sin  neumonía  respetando  la  distribución  de edad y género. “La distribución de edad 
o  género  es  importante,  dado que si no el sistema puede aprender a diferenciarlo por otras 
características  ajenas  a  la  presencia  o  no  de  COVID-19,  como  por  ejemplo  la  osificación  en 
64
menores que no está presente en adultos”, explican en su sitio web . 

Con  respecto  a  la  aplicación  de  IA  en  psiquiatría,  Diego  Fernández  Slezak  expuso  en  las 
Jornadas  sobre  Impactos  Sociales  de  la  IA,  organizadas  por  Fundación Vía Libre en 2019, en 
las  que  planteó  algunas  de  las  preguntas  que  se  hacen  desde  el  LIAA  para  pensar  estos 
desarrollos:  “¿Podremos  mirar  cuál  es  el  cableado  interno  del  cerebro  a  partir  de  lo  que 
hablamos?  ¿Habrá  estructuras  que  vayan  más  allá  de  la  cultura,  de  nuestros  aprendizajes, 
de  nuestro  idioma  que  nos  den  alguna  idea  de  algún  algoritmo  que  esté  funcionando  en 
nuestro  cerebro?  Algoritmos  de  pensamiento.  Tratar  de  encontrar  esas  estructuras  que 
65
sean  ‘comunes  para  todos’” .  En  ese  sentido,  explica  que,  en  el  marco  de  un  experimento 
de  laboratorio  que  no  tiene  aplicación  clínica  todavía,  desarrollaron  un  algoritmo  que 
traduce  del  mundo  de  las  palabras  al  mundo  de  los  grafos  los  discursos  de  pacientes 
psiquiátricos.  Al  analizar  frases,  dice,  empiezan  a  caracterizar  la  estética  del  discurso.  Por 
ejemplo,  en  una  de  las  enfermedades  que  miran,  que  es  hipomanía  en  bipolares, 
observaron  que  en  la  etapa  de  manía  muchas  veces  aparece  una  repetición  al  “yo”. 
“Entonces,  haciendo  este  tipo  de  análisis,  y  algunos  otros,  podemos  empezar  a  tratar  de 
caracterizar  el  tipo  de  discurso  y  ver  si  ese  tipo  de  discurso  se  asocia  a  distintas 
66
enfermedades  o  trastornos  mentales”,  comenta . En cuanto a la metodología de trabajo en 
este  caso,  explica que a partir de una entrevista que se graba en audio, se transcribe a texto 
y, a partir de ahí, se analiza el estado mental del paciente. 

Slezak  explica  que  desde  el  LIAA trabajan en métodos de ​data science ​con Machine Learning 


a  partir  de  repositorios  masivos  -no  trabajan  con  experimentos  de  laboratorio  de  menor 
tamaño- y en psicología experimental tradicional, sobre la toma de decisiones. 

C. Universidad  del  Litoral:  El  impacto  del  desbalance  de 


género en bases de datos de entrenamiento de rayos X 
Enzo  Ferrante  es  Ingeniero  de  Sistemas,  Doctor  en  Ciencias  de  la  Computación  y  realizó su 
postdoctorado  sobre  Deep  Learning  y  segmentación  de  imágenes  cerebrales en el Imperial 

64
  “Inteligencia  artificial  como  soporte  para  la  detección  de  casos  sospechosos  de  COVID-19”  por  Entelai. 
Publicado el 28 de marzo de 2020. Disponible en: 
https://entelai.com/2020/03/28/inteligencia-artificial-como-soporte-para-la-deteccion-de-casos-sospechoso
s-de-covid-19/​ (consultado en junio de 2020). 
65
  “07  -  IA,  desde  la  computación  y  la  filosofía  -  Sol  Terlizzi  y  Diego  Fernández  Slezak”,  minuto  6:50. 
Disponible en: h ​ ttps://www.youtube.com/watch?v=UjDzAQiNWu0  
66
  "07  -  IA,  desde  la  computación  y  la  filosofía  -  Sol  Terlizzi  y  Diego  Fernández  Slezak",  minuto  25:15. 
Disponible en: h ​ ttps://www.youtube.com/watch?v=UjDzAQiNWu0  

 
24 
 
 
 
College  London  (BioMedIA  lab)  bajo  la  supervisión  del  Prof.  Ben  Glocker.  Actualmente,  es 
investigador  del  CONICET  y  AXA  RF  Fellow  en  el  Research  institute  for  signals,  systems  and 
computational  intelligence  (CONICET  /  Universidad  Nacional  del  Litoral)  en  Santa  Fe, 
67
Argentina ,  donde  está  comenzando  una  nueva  línea  de  investigación  en  métodos 
68
computacionales para el análisis de imágenes biomédicas . 

En  una  entrevista  realizada  para  el  presente  trabajo,  Ferrante  cuenta:  “Lo  que  intentamos 
hacer  es pensar nuevos métodos para procesar estas imágenes, tratamos de pensar nuevas 
formas  de  resolver  problemas.  Al  trabajar  con  imágenes  médicas  surgen  particularidades 
distintas  a  las  de  cualquier  imagen.  Los  métodos  que  usamos  basados  en  aprendizaje 
automático,  en particular en Deep Learning, que son las Redes Neuronales Convolucionales, 
son  métodos  genéricos,  pero  surgen  particularidades  en  el  área  que  hacen  necesario  que 
surjan  métodos  específicos. Una de estas particularidades es que las imágenes médicas son 
en 3D, como es el caso de la imagen de un cerebro”. 

La  información  médica  tiene  regularidad,  explica  el  especialista,  por  lo  que  mucha  de  su 
investigación  tiene  que  ver  con  cómo  aprovechar  la  regularidad de los datos médicos, de la 
anatomía  en  general,  para  introducir  esa  regularidad  en  el  proceso  de  aprendizaje  y 
minimizar los errores que un algoritmo puede tener. 

Por otro lado, en 2019 empezaron a estudiar la temática de “fairness” o equidad algorítmica, 
teniendo  en  cuenta  la  perspectiva  de  género.  Ese  año,  el  gobierno  de  la  provincia de Santa 
Fe  había  organizado  el  Congreso  Internacional  de  Género  en  Ciencia,  Tecnología  e 
69
Innovación   y  allí  conocieron  los  trabajos  de  Londa  Schiebinger, pionera en los estudios de 
historia  de  la  ciencia  con  perspectiva  de  género,  que  encabeza  el  proyecto  Gendered 
Innovations  de  la  Universidad  de  Stanford  donde  desarrollan  métodos prácticos de análisis 
de  sexo  y  género  para  científicos  e  ingenieros  y  proporcionan  estudios  de  casos  como 
ilustraciones concretas de cómo el análisis de sexo y género conduce a la innovación. 

“Así  fue  como  surgió  la  idea  de  ver  qué  pasa  si  a  un  sistema  de  diagnóstico  automatizado, 
como  podía  ser  un  sistema  basado  en  imágenes  de  rayos  X  que  trata  de  detectar  una 
patología  o  un  hallazgo,  uno  lo  entrena  con  imágenes  sólo  de  hombres y después lo testea 
en  imágenes  sólo  de  mujeres  o  viceversa  -narra  Ferrante-.  Queríamos  ver  si la ​performance 
del  algoritmo  cae  en  el  grupo  minoritario  o  en  el  grupo  que  no  vio  el  algoritmo”.  Desde  el 
equipo  de  investigación,  conformado  también  por  Agostina  Larrazabal,  Diego  Milone, 
Nicolás  Nieto  y  Victoria  Peterson,  tenían  la  sospecha  de  que  esto  iba  a  suceder  porque 
existen  variaciones  entre  radiografías  de  mamas  de  hombres  y  mujeres  (en  las  segundas 
aparece un tejido más claro). 

En  abril  de  2020,  la  revista  Proceedings  of  the  National  Academy  of  Sciences  of  the  United 
States  of  America  (PNAS)  publicó  la  investigación  en  la  que  detectaron  el  impacto  del 

67
Ver: h​ ttp://sinc.unl.edu.ar/  
68
Ver: h ​ ttp://sinc.unl.edu.ar/grants/computational-methods-for-biomedical-image-analysis/  
69
  “1°  Congreso  Internacional  de  Género  en  Ciencia,  Tecnología  e Innovación” publicado por el gobierno de 
la provincia de Santa Fe. Disponible en: 
https://www.santafe.gob.ar/index.php/web/content/view/full/230614​ (consultado en junio de 2020). 

 
25 
 
 
 
desbalance  de  género  en  bases  de  datos  de  rayos  X  al  entrenar  clasificadores  basados  en 
70
Redes Neuronales Convolucionales (CNNs) .  

“Nosotros  trabajamos  con  dos  ​datasets  ​públicos  muy  grandes  de  imágenes  de  rayos  X, 
probamos  tres  arquitecturas  de  redes  neuronales  diferentes  y  demostramos  que  hay 
71
muchos  modelos  que  tienen  ese  ​bias .  En  la  comunidad  científica,  estas  son  las 
arquitecturas  clásicas  de  clasificación  de  imágenes  que  están  siendo  usadas  hoy  en  día”, 
destaca  el  investigador,  quien  aclara  que  las  diferencias son estadísticamente significativas, 
aunque  “no son gigantes”, pero lo que se ve es la tendencia. “El objetivo era ver que existe el 
bias  ​y  concientizar  a la comunidad de investigadores en el área de que es importante, por lo 
menos,  informar  los  datos  demográficos  de  los  datos  que  usaste  para  el  estudio. No todos 
lo  hacen.  A  nosotros  nos  costó  encontrar ​datasets ​públicos en los que pudiéramos entrenar 
nuestro modelo con información de género”, concluye. 

D. CONICET: Diferenciación de células madre 


En  marzo  de  2019  se  publicó  una  investigación  llevada  a  cabo  por  los  doctores  Santiago 
Miriuka  y  Ariel  Waisman  en  el  Laboratorio  de  Investigación  Aplicada  a  las  Neurociencias 
(LIAN)  de Fleni y el CONICET en el que lograron aplicar Inteligencia Artificial a la detección de 
la diferenciación de células madre en períodos ultra precoces. 

Las  células  madre  pluripotentes  tienen  la  capacidad  de  diferenciarse  en  cualquier  tipo  de 
célula  adulta  del  cuerpo  humano.  En  la  actualidad,  identificar  esta  diferenciación  puede 
llevar  muchas  horas  y  costosos  procedimientos.  Con  el  hallazgo  de  Miriuka  y  Waisman,  es 
posible  hacerlo  en  una  hora  y  sólo  a  partir  de  una  foto  en  un  microscopio.  Según  la 
72
investigación,  publicada  en  la  revista  científica  Stem  Cell  Reports ,  esto  podría  permitir,  en 
un futuro cercano, la detección automática de diferentes funciones celulares. 

“Para  el  estudio,  células  madre  pluripotentes  murinas  fueron  inducidas  a  diferenciarse  en 
células  similares  a  la  del  epiblasto,  un  tipo  de  célula similar a la que emerge bien temprano 
durante  el  desarrollo  embrionario.  Apenas  30  minutos  después  del  inicio,  las  redes 
neuronales  pudieron  predecir qué imágenes contenían células a las que se había inducido a 

70
  “Gender  imbalance  in  medical  imaging  datasets  produces  biased  classifiers  for  computer-aided 
diagnosis”  por  Agostina  J.  Larrazabal,  Nicolás  Nieto,  Victoria  Peterson,  Diego  H.  Milone,  y  Enzo  Ferrante, 
miembros  del  Research  Institute  for  Signals,  Systems  and  Computational  Intelligence  sinc,  Universidad 
Nacional  del  Litoral  (CONICET),  Santa  Fe,  Argentina;  Instituto  de  Matemática  Aplicada  del  Litoral, 
Universidad  Nacional  del  Litoral  (CONICET),  Santa  Fe,  Argentina;  y  Facultad  de  Ingeniería,  Universidad 
Nacional  de  Entre  Ríos,  Oro  Verde,  Argentina.  Publicado  por  Proceedings  of  the  National  Academy  of 
Sciences  of  the  United  States  of  America  (PNAS),  editado  por  David  L.  Donoho,  Stanford  University, 
Stanford,  CA.  Aprobado  el  30  de  abril  de 2020. Disponible en: ​https://www.pnas.org/content/117/23/12592 
y ​https://www.pnas.org/content/pnas/117/23/12592.full.pdf​ (consultado en junio de 2020). 
71
​“Bias”​ se refiere a los sesgos. 
72
  “Deep  Learning  Neural  Networks  Highly  Predict  Very Early Onset of Pluripotent Stem Cell Differentiation” 
por  Santiago  Miriuka,  Ariel  Waisman,  Alejandro  La  Greca,  Alan  Möbbs,  María  Agustina  Scarafía,  Natalia 
Santín  Velazque, Gabriel Neiman, Lucía Moro, Carlos Luzzani, Gustavo Sevlever y Alejandra Guberman, para 
Stem Cell Reports. Publicado el 14 de marzo de 2019. Disponible en: 
https://www.cell.com/stem-cell-reports/fulltext/S2213-6711(19)30052-9​ (consultado en junio de 2020). 

 
26 
 
 
 
la  diferenciación. Una hora después del comienzo de la diferenciación, las predicciones eran 
73
correctas  en  más  del  99% de los casos”, dice en un artículo del CONICET . Waisman explica: 
“Los  algoritmos  que  utilizamos  son  similares  a  los  que  utiliza  Facebook  para  reconocer 
rostros y etiquetarlos automáticamente”. 

III. Desarrollos  e  implementaciones  de  IA  en  salud  en 


Latinoamérica 
Así  como  se  ve  en  los  casos  de  Corea  del  Sur, Estados Unidos y Argentina, mencionados en 
este  documento,  son  varios  los  países  de  Latinoamérica  que  tomaron  medidas  similares 
74
ante el avance de la pandemia por SARS-CoV-2 (COVID-19) . 

En  Brasil  se lanzó la aplicación Coronavírus-SUS que permite la autoevaluación de síntomas, 


al  igual  que  la  app  SaludEc  lanzada  por  el  Ministerio  de  Salud  Pública  de  Ecuador  y 
CoronavirusUY,  de  Uruguay,  que,  además,  ofrece  servicios  de  telemedicina  a  quienes 
sospechen  haberse  contagiado.  En  Colombia,  el  Ministerio  de  Salud  y  el  Instituto  Nacional 
de  Salud  presentaron  CoronApp-Colombia  para  monitorear  el  estado  de  salud  de  las 
personas residentes y extranjeras que estén en el país. 

En  Guatemala  se  presentó  Alerta  Guate,  una  aplicación  desarrollada  “en  colaboración  con 
75
Israel  y  Google” ,  que  ofrece  alertas  específicas  de  acuerdo  a  la  ubicación  de las personas. 
Por  su  parte,  México  presentó  la  aplicación  COVID19-MX  que  ofrece  autodiagnóstico  y  la 
ubicación  de  centros  de  salud  cercanos,  entre  otros  servicios.  Además,  desde  el  gobierno 
anunciaron  la  colaboración  con  las  empresas  de  telefonía  para  monitorear  el  movimiento 
76
de quienes residen en la Ciudad de México . 

A. Brasil: Estrategia en desarrollo y “LAURA” 


Aunque  Brasil  todavía  no  cuenta  con  una  estrategia  de  IA,  desde  que  se  llevó  a  cabo  ​O 
Seminário  Inteligência  Artificial  na  Transformação  Digital​,  en  mayo  de  2019,  que  congregó  a 

73
  “Logran  aplicar  inteligencia  artificial  a  la  diferenciación  de  células madre en períodos ultra precoces” por 
CONICET. Publicado el 19 de marzo de 2019. Disponible en: 
https://www.conicet.gov.ar/cientificos-logran-aplicar-inteligencia-artificial-a-la-diferenciacion-de-celulas-ma
dre-en-periodos-ultra-precoces/​ (consultado en junio de 2020). 
74
  “¡El  tecnoptimismo  volvió! En forma de coron-apps” por Alex Argüelles para Derechos Digitales. Publicado 
el 3 de abril de 2020. Disponible en: 
https://www.derechosdigitales.org/14368/el-tecnoptimismo-volvio-en-forma-de-coron-apps/ (consultado en 
junio de 2020). 
75
  “Giammattei  anuncia  el  app  Alerta  Guate  para  informar  sobre  el  coronavirus  en  Guatemala”  por  Axel 
Vicente para Prensa Libre. Publicado el 24 de marzo de 2020. Disponible en: 
https://www.prensalibre.com/guatemala/comunitario/giammattei-anuncia-el-app-alerta-guate-para-inform
ar-sobre-el-coronavirus-en-guatemala/​ (consultado en junio de 2020). 
76
  “Cierre  de  centros  comerciales  por  emergencia  sanitaria”  por  el  Gobierno  de  la  Ciudad  de  México. 
Publicado el 31 de marzo de 2020. Disponible en: 
https://cdmx.gob.mx/portal/articulo/cierre-de-centros-comerciales-por-emergencia-sanitaria  (consultado 
en junio de 2020). 

 
27 
 
 
 
autoridades,  académicos  y  desarrolladores,  se  está  trabajando  en  su  elaboración.  El 
Ministerio  de  Ciencia,  Tecnología  e  Innovaciones  de  Brasil  (MCTIC)  abrió  una  consulta 
pública  sobre  un  borrador  de  la  Estrategia  Nacional  de  IA  en  el  país,  la  que  se  mantuvo 
77
abierta hasta fines de enero de 2020 . 

Además,  el  MCTIC,  de  la  mano  del  Comité  Directivo  de  Internet  en  Brasil  (CGI),  se  propone 
crear  hasta  ocho  Centros  de  Investigación  Aplicada  (CPA)  en  IA,  “dentro  de  los  que  se 
conducirán  varias actividades, como investigaciones científicas, tecnológicas y de innovación 
aplicadas  y  orientadas  a  solventar  problemas  sociales  y  ambientales  usando  la  IA  como 
herramienta principal”. 

Uno  de  los  sistemas  de IA que se utiliza en Brasil es la aplicación LAURA -desarrollada por el 


78
Instituto  Laura  Fressatto -  que  tiene  como  objetivo  reducir  muertes  evitables  por  sepsis 
mediante  la  intervención  temprana  a  través  de  una  plataforma  de  monitoreo  de salud que 
identifica  pacientes  en  deterioro  clínico  y  notifica  en  tiempo  real  al  equipo  de  atención, 
analizando  los  registros  electrónicos  de  cuidado  médico.  El  sistema  aplica  Machine 
79
Learning, Deep Learning, Procesamiento de Lenguaje Natural (PLN) y toma de decisiones . 

B. Colombia: Plan Nacional y “1DOC3” 


Colombia  cuenta,  desde  fines  de  2019,  con  su  Plan  Nacional  para  la Transformación Digital 
80
e  IA   que  tiene  como  objetivo  promover  el  uso  estratégico  de  tecnologías  digitales  en  el 
ámbito  público  y  privado  para  impulsar  la  innovación,  el  diseño,  la  producción,  y  la 
implementación  de  tecnologías  que  permitan  crear  un  mercado  de  IA  y  atraer  el  talento 
internacional. 
81
Con  respecto  al  uso  actual  de  sistemas  de  IA,  1DOC3 ,  que  se  utiliza  desde  2015,  es  una 
plataforma  digital  de  orientación  médica  virtual  basada  en  Procesamiento  de  Lenguaje 
Natural  y  toma  de  decisiones,  que  está  entrenada  con  datos  de  enciclopedias  médicas, 
librerías  médicas  externas  y  etiquetas  médicas  elaboradas  por  más  de  400  médicos.  El 
mismo  sistema  permanece  entrenando,  a  su  vez,  con  las  preguntas  y  respuestas  que 
circulan  en  la  plataforma  (ya  que  uno  de  sus  servicios  incluye  la  posibilidad  de chatear con 
un médico). 

77
  “MCTIC  lança  consulta  pública  para  a  Estratégia  Brasileira  de Inteligência Artificial” por ASCOM en el sitio 
oficial del MCTIC de Brasil. Publicado el 12 de diciembre de 2019. Disponible en:  
http://www.mctic.gov.br/mctic/opencms/salaImprensa/noticias/arquivos/2019/12/MCTIC_lanca_consulta_p
ublica_para_a_Estrategia_Brasileira_de_Inteligencia_Artificial.html​ (consultado en junio de 2020). 
78
Ver: h​ ttps://institutolaura.org/  
79
Ver: h ​ ttps://www.laura-br.com/  
80
  “Política  Nacional para la Transformación Digital e Inteligencia Artificial” por el Departamento Nacional de 
Planeación  de  la  República  de  Colombia.  Publicado  el  8  de  noviembre  de  2019.  Disponible  en: 
https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/3975.pdf​ (consultado en junio de 2020). 
81
Ver: h ​ ttps://www.1doc3.com/  

 
28 
 
 
 
C. Chile: La política de IA y “DART” 
El  Ministerio  de  Ciencia,  Tecnología,  Conocimiento  e  Innovación  de  Chile  invitó  a  diez 
expertos  nacionales  para  participar  del  desarrollo  de  un  documento  gubernamental  para 
impulsar  la  IA  en ese país. Asimismo, sumó a la mesa de debate a un comité interministerial 
y  abrió  una  convocatoria  para  invitar  a  sumarse  a  la  ciudadanía  en  general.  Los  pilares  de 
este  documento,  son:  “Factores  habilitantes  de  la  inteligencia  artificial  (capital  humano, 
infraestructura,  los  datos  -su  propiedad,  su  resguardo-),  desarrollo  e  investigación  en  el 
82
campo de la IA, más los aspectos éticos y normativos de su uso” . 

A  partir del desarrollo de este documento se busca iniciar el debate sobre las consecuencias 
legales,  éticas,  económicas  y  culturales  que  tiene  la  IA  en  el  país.  Hasta  el  momento,  se 
tomaron  todas  las  opiniones  que  se  presentaron  hasta  mediados  de  2020  y  están  siendo 
evaluadas en una comisión de trabajo. 
83
Desde  2015,  la  Universidad  de  Chile  junto  a  inversionistas  privados  desarrollaron  DART , 
una  plataforma  que  permite  detectar  signos de la diabetes a partir del análisis de imágenes 
de  la  retina.  El  sistema  utiliza  técnicas  de  Machine  Learning,  Deep  Learning,  toma  de 
decisiones  y  reconocimiento  de  imágenes  para  descartar  casos  negativos  y  derivar 
potenciales  positivos  a  oftalmólogos  para  hacer  una  recomendación  al  paciente.  El modelo 
fue  entrenado  con  una  muestra  representativa  obtenida  de  varios  centros  y  observadores 
para detectar signos de retinopatía diabética. 

D. México: Primer Hub de IA en Jalisco y “Unima” 


En  el  Estado  de  Jalisco,  México,  la Coordinación General de Innovación Gubernamental creó 
el  primer  Hub  de  Inteligencia  Artificial  para  afrontar  desafíos  en  diversas  áreas,  entre  las 
que  se  encuentra  la  salud.  En  su  etapa  inicial  se desarrollarán proyectos en temas de salud 
y  seguridad.  Su  primer  proyecto es fAIr Jalisco que “concentrará desarrollos como el análisis 
de  retinopatía  diabética,  a  partir  de  un  análisis  de  imágenes  con  un  algoritmo 
especialmente  diseñado  para  este  fin”  y  cuenta  con  un  presupuesto  de  2.9  millones  de 
dólares,  de  los cuales el Banco Interamericano de Desarrollo (BID) aporta 1.450.000 dólares, 
el  Tecnológico  de  Monterrey  aporta  un millón de dólares y el gobierno de Jalisco aporta 450 
84
mil dólares.  

El  Hub,  a  pesar  de  estar ubicado en Jalisco, es una iniciativa que está abierta a todo el país a 


través  de  los  campus  de  la  universidad  privada  Tecnológico  de  Monterrey.  Esta  institución 

82
  “ia13:  ¿Cuál  es  la  política  de  inteligencia  artificial  que  está  impulsando  el  gobierno  en  Chile?”  por  t13. 
Publicado el 17 de junio de 2020. Disponible en: 
https://www.t13.cl/noticia/tendencias/ia13-cual-es-politica-inteligencia-artificial-esta-impulsando-gobierno-c
hile​ (consultado en junio de 2020). 
83
Ver: h
​ ttps://www.teledx.org/dart/?lang=es  
84
  “Inauguran  en  Jalisco  primer  Hub  de  Inteligencia  Artificial  en  México”  por  Franco  Daniel  Gómez  para  20 
Minutos. Publicado el 27 de noviembre de 2019. Disponible en: 
https://www.20minutos.com.mx/noticia/849350/0/inauguran-jalisco-primer-hub-inteligencia-artificial-m-eac
ute-xico/​ (consultado en junio de 2020). 

 
29 
 
 
 
firmó  convenios  con  el  Instituto  Nacional  de  Investigación  Informática  y  Automatización 
(INRIA)  de  Francia,  la  Universidad  de  Berkeley  de  California  y  el  Instituto  de  Tecnología  de 
Beijing  (BIT),  con  quienes  desarrollarán  proyectos  conjuntos.  Las  primeras  empresas  en 
sumarse  al  Hub  de  Inteligencia  Artificial  fueron  Amdocs,  IBM,  Intel,  Sparkcognition,  Tata 
Consultancy  Services  y  Wizzeline,  todas  asentadas  en  Jalisco.  Según  explican  desde  el 
85
Tecnológico  de  Monterrey ,  además  de  realizar  consultoría  especializada  y 
emprendimiento de alta tecnología, el Hub tendrá estas áreas de enfoque: 

1. Aprendizaje  de  Máquinas  y  Deep  Learning,  Procesamiento  de  Lenguaje  Natural, 


Visión Computacional. 
2. Ética y Transparencia de la IA. 
3. Modelos de datos abiertos para IA. 
4. Diseño, construcción y medición de impacto de IA aplicada. 
86
Por  otro  lado,  desde  2016  comenzó  a  utilizarse  Unima ,  un  dispositivo  para  asistir  a 
médicos,  enfermeras  y  trabajadores  de  la  salud  en  el  diagnóstico  de  enfermedades  en 
menos  de  15  minutos. “Los algoritmos de IA se usan en una aplicación móvil que hace parte 
de  las  pruebas  de  diagnóstico  conducidas  en  el  terreno.  El  examen,  realizado con una gota 
de  sangre,  inicia  con  una  reacción  bioquímica  que  se  desarrolla  en  un  dispositivo  de 
microfluídica  en  papel,  el  cual  reporta  una  reacción  visual  que  se  evalúa  en  la  app  a través 
de  algoritmos  de  análisis  de  imágenes  y  Redes  Neuronales Convolucionales. Estas sugieren 
87
una decisión final según el resultado de diagnóstico de la prueba” . 

E. Perú: “MIDIS” para detección temprana de anemia  


88
Desde  2018,  en  Perú  se  utiliza  MIDIS ,  un  sistema  de  detección  temprana  de  anemia  en 
niños  y  niñas  desarrollado  en  conjunto  por  la  AYNI  LAB  del  Ministerio  de  Desarrollo  e 
Inclusión  Social,  el  Ministerio  de  la  Producción,  y  la Universidad Peruana Cayetano Heredia. 
MIDIS  es  una aplicación que permite diagnosticar anemia a partir de un sistema de Machine 
Learning  y  redes  neuronales  que  procesa  la  imagen  (una  fotografía  de  la  conjuntiva  del 

85
  “Así  será  el  innovador  Hub  de  Inteligencia  Artificial  del  Tec”  por  Carlos  González  para  el  sitio  oficial  del 
Tecnológico de Monterrey. Publicado el 21 de noviembre de 2019. Disponible en: 
https://tec.mx/es/noticias/guadalajara/investigacion/asi-sera-el-innovador-hub-de-inteligencia-artificial-del-t
ec​ (consultado en junio de 2020). 
86
Ver: h​ ttps://www.unimadx.com/  
87
  “La  Inteligencia  Artificial  al  servicio  del  bien  social  en  América  Latina  y  el  Caribe:  panorámica  regional  e 
instantáneas  de  doce  países”  por  Constanza  Gómez  Mont,  Claudia  May  Del  Pozo,  Cristina  Martínez  Pinto, 
Ana  Victoria  Martín  del  Campo  Alcocer  (C  Minds)  para  Banco  Interamericano  de  Desarrollo  (IADB),  p.  95. 
Publicado en mayo de 2020. Disponible en: 
https://publications.iadb.org/publications/spanish/document/La-inteligencia-artificial-al-servicio-del-bien-so
cial-en-America-Latina-y-el-Caribe-Panor%C3%A1mica-regional-e-instant%C3%A1neas-de-doce-paises.pdf 
(consultado en junio de 2020). 
88
Ver: w ​ ww.upch.edu.pe/bioinformatic/anemia/app/  

 
30 
 
 
 
párpado  ocular  del  menor)  para  determinar  el  nivel  de  hemoglobina  y,  a  partir  de  eso,  la 
89
presencia o no de anemia.  

Al momento de redactar este documento, Perú no contaba con un plan estratégico en IA. 

IV. Desarrollos  e  implementaciones  de  IA  en  salud  en  el 


mundo 
Según  el  informe  de  2019  del  AI  Now  Institute  de  la  Universidad  de  Nueva  York,  “las 
tecnologías  de  IA  hoy  en  día  median  las  experiencias  de  salud  de  las  personas  de  muchas 
maneras:  desde  tecnologías  populares  basadas  en  el  consumidor  como  Fitbits  y  Apple 
Watch,  hasta  sistemas  de  soporte  de  diagnóstico  automatizados en hospitales, hasta el uso 
de  análisis  predictivos  en  plataformas  de  redes  sociales  para  predecir  comportamientos 
perjudiciales.  La  IA  también  juega  un  papel  en  cómo  las  compañías  de  seguros  de  salud 
generan  puntajes  de  riesgo  de  salud  y  en  la  forma  en  que  las  agencias  gubernamentales  y 
90
las organizaciones de atención médica asignan recursos médicos” .  

La  implementación  de  tecnologías  de  IA  no se limita sólo a diagnósticos y tratamientos sino 


incluso  a  sistemas  automatizados  para  asignar  turnos  o,  como  es  el  caso  que  relata  un 
artículo  de  The  Verge  de  2018,  para  asignar  personal  de  cuidado  de  personas  mayores  o 
91
con  diversas  discapacidades .  Según  una  encuesta  a  más  de  900  profesionales  de  la salud 
realizada  por  el  MIT  Technology  Review  Insights,  en  asociación  con  GE  Healthcare,  revela 
que  ya  están  utilizando  IA  para mejorar el análisis de datos, permitir mejores diagnósticos y 
92
predicciones de tratamiento, y liberar al personal médico de cargas administrativas . 

89
  “La  Inteligencia  Artificial  al  servicio  del  bien  social  en  América  Latina  y  el  Caribe:  panorámica  regional  e 
instantáneas  de  doce  países”  por  Constanza  Gómez  Mont,  Claudia  May  Del  Pozo,  Cristina  Martínez  Pinto, 
Ana  Victoria  Martín  del  Campo  Alcocer  (C  Minds)  para  Banco  Interamericano  de  Desarrollo  (IADB),  p.  107. 
Publicado en mayo de 2020. Disponible en: 
https://publications.iadb.org/publications/spanish/document/La-inteligencia-artificial-al-servicio-del-bien-so
cial-en-America-Latina-y-el-Caribe-Panor%C3%A1mica-regional-e-instant%C3%A1neas-de-doce-paises.pdf 
(consultado en junio de 2020). 
90
  “​AI  Now  2019  Report​”  por  Kate  Crawford,  Roel  Dobbe,  Theodora  Dryer,  Genevieve  Fried,  Ben  Green, 
Elizabeth  Kaziunas,  Amba  Kak,  Varoon  Mathur,  Erin  McElroy,  Andrea  Nill  Sánchez,  Deborah  Raji,  Joy  Lisi 
Rankin,  Rashida  Richardson,  Jason  Schultz,  Sarah  Myers  West,  y  Meredith  Whittaker, para AI Now Institute, 
p. 52. Disponible en: ​https://ainowinstitute.org/AI_Now_2019_Report.html​​ (consultado en julio de 2020). 
91
  “What  happens  when  an  algorithm  cuts  your  health  care”  por  Colin  Lecher  para  The  Verge. Publicado el 
21 de marzo de 2018. Disponible en: 
https://www.theverge.com/2018/3/21/17144260/healthcare-medicaid-algorithm-arkansas-cerebral-palsy 
(consultado en julio de 2020). 
92
  “The  AI  effect.  How  artificial  intelligence  is  making  health  more  human”  por  MIT  Technology  Review 
Insights  y  GE  Healthcare.  Encuesta  realizada  en  octubre  de  2019.  Disponible  en: 
https://www.technologyreview.com/hub/ai-effect/​ (consultado en junio de 2020). 

 
31 
 
 
 
A. China: un Plan hacia 2050, Alibaba e Infervision 
93
En  2017,  China  publicó  su  “Next  Generation  AI  Development  Plan”   en  el  que  explicitó  sus 
planes  de  lograr  avances  concretos  en  IA  hacia  2025  y  posicionarse  como  líder  mundial  en 
desarrollador  de  tecnologías  de  IA  hacia  2030,  sostenido  por  una  industria  de  Inteligencia 
Artificial  nacional  en  la  invertirá  150  mil  millones  de  dólares  con  el  objetivo  de  que  sea  el 
94
principal motor de su industria para 2050 . 

En  el  marco  de  la  pandemia  por  coronavirus,  en  febrero  de  2020,  el  instituto  de 
investigación  Damo  Academy  de  Alibaba,  la  empresa  reconocida  internacionalmente  en  el 
rubro  del  comercio  electrónico,  creó  un  algoritmo  que  puede  detectar  casos  positivos  de 
COVID-19  en  20  segundos  a  partir  de  escaneos  de  tomografía computarizada, con una tasa 
95
de precisión del 96% . 

Por  su  parte,  Infervision,  la  startup  de  Beijing  fundada  en  2015  por  Shaokang  Wang,  ha 
desarrollado  un  software  de  lectura  pulmonar,  con  algoritmos  de  aprendizaje  automático 
entrenados  con  más  de  un  millón  de  escaneos  de  tomografías computarizadas de pulmón, 
provenientes  de  hospitales  chinos,  que  destacan  nódulos  de  tejido  potencialmente 
cancerosos.  Una  de  las  instituciones  que  utiliza  el  sistema  es  el  Hospital  Dexeus  de 
96 97
Barcelona,  España ,  y  otra  es  Wake  Radiology  de  Carolina  del  Norte,  Estados  Unidos . 
Según  informó  el  Hospital  Dexeus,  la  tecnología  se  basa  en  utilizar  un  algoritmo  que  se 
actualiza  a  través  de  los  datos  de  más  de  25.000  imágenes  de  TAC  de  tórax  que  hacen 
diariamente 250 hospitales distintos. 

93
  El  Plan,  originalmente  publicado  en  el  sitio  oficial  del  gobierno  chino 
(​http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm​),  fue  traducido  íntegramente  al 
inglés  por  Graham  Webster,  Rogier  Creemers,  Paul  Triolo,  y  Elsa  Kania:  “Full  Translation:  China’s  ‘New 
Generation  Artificial  Intelligence  Development  Plan’”,  para  New  America.  Publicado  el 1 de agosto de 2017. 
Disponible en: 
https://www.newamerica.org/cybersecurity-initiative/digichina/blog/full-translation-chinas-new-generation-
artificial-intelligence-development-plan-2017/   
94
  “China  plans  to  be  a  world  leader  in  Artificial  Intelligence  by  2030”  por  Pablo  Robles  para  South  China 
Morning Post. Publicado el 1 de octubre de 2018. Disponible en: 
https://multimedia.scmp.com/news/china/article/2166148/china-2025-artificial-intelligence/index.html 
(consultado en junio de 2020). 
95
  “Alibaba  crea  un  algoritmo  de  diagnóstico  con  inteligencia  artificial  que  detecta  el  coronavirus  en  20 
segundos” por RT. Publicado el 6 de marzo de 2020. Disponible en: 
https://actualidad.rt.com/actualidad/345023-alibaba-algoritmo-diagnostico-ia-detectar-coronavirus 
(consultado en junio de 2020). 
96
  “Dexeus  es  el  primer  hospital  de  España  en  utilizar  la  Inteligencia  Artificial  en  el  diagnóstico  precoz  de 
cáncer de pulmón”, en el sitio Quirón Salud. Publicado el 13 de febrero de 2019. Disponible en: 
https://www.quironsalud.es/es/comunicacion/notas-prensa/dexeus-primer-hospital-espana-utilizar-intelige
ncia-artific​ (consultado en junio de 2020). 
97
  “How  Health  Care  Data  and  Lax  Rules  Help  China Prosper in AI” por Tom Simonite para Wired. Publicado 
el 1 de septiembre de 2019. Disponible en: 
https://www.wired.com/story/health-care-data-lax-rules-help-china-prosper-ai/  (consultado  en  junio  de 
2020). 

 
32 
 
 
 
B. Estados Unidos: Los desarrollos de las big tech 
Uno  de  los  sistemas  de  IA  más  reconocidos  a  nivel  mundial  en  el  ámbito  de  la  salud  es 
98
Watson,  desarrollado  por  la  sección  Watson  Health  de IBM, que en 2015 también adquirió 
la  empresa  Merge,  especializada  en  software  de  reconocimiento  de  imágenes  médicas que 
puede  identificar  posibles  signos  y  alertas  de  enfermedades  y  sugerir  tratamientos  para  el 
99
paciente  (ahora  ofrece  el  sistema  Merge  PACS) ​.  “Watson  Health  de  IBM  se posicionó en la 
industria  de  la  salud  utilizando  sus  capacidades  de  procesamiento de lenguajes naturales y 
computación  cognitiva  para  desarrollar  herramientas  de  apoyo  a  las  decisiones  clínicas  en 
cinco  pilares:  oncología  y  genómica,  ciencias  de  la  vida,  salud  poblacional,  imágenes  y  la 
100
transición hacia modelos de atención basados en el valor” . 
101
AI  for  Health   es  el  nombre  de  la  iniciativa  lanzada  por  Microsoft,  en  la  que  invertirá  40 
millones  de  dólares  a  cinco  años,  para  diseñar,  desarrollar  e  impulsar  la  investigación  e 
implementación de tecnologías de IA para la salud. Los tres pilares del proyecto, son: 

1. Búsqueda  por  el  descubrimiento  (para  la  investigación  médica  que  permita  el 
avance en prevención, diagnóstico y tratamientos de enfermedades). 
2. Información  de  valor  sobre  salud  global  (para  la  protección  ante  crisis  sanitarias 
globales). 
3. Equidad  en  la  salud  (para  mejorar  el  acceso  a  la  atención  para  la  población 
vulnerable). 

La  primera  instancia  de  aplicación  abarca:  el  Hospital  de  Investigación  Infantil  y  el  Fred 
Hutchinson  Cancer  Research  Center  (Seattle,  EEUU),  el  Intelligent  Retinal  Imaging  Systems 
-IRIS-  (Florida,  EEUU),  el  Comité  para  el  Progreso  Rural  de Bangladesh -BRAC- (África y Asia), 
Novartis  Foundation  (la  empresa  multinacional  que  se  dedica  a  la  industria  farmacéutica  y 
biotecnología),  y  PATH,  una  institución  global  que  busca  brindar  soluciones  científicas  para 
102
la salud a partir del uso de datos y tecnología aplicada.  

Por  su  parte,  Google  está  trabajando  desde  hace  años  en  su  proyecto  GoogleLeNet  para 
magnificar,  interpretar  y  reconocer imágenes con mucha mayor exactitud que los patólogos 
con  sus  microscopios,  a  través  de  una  arquitectura  de  Red  Neuronal  Convolucional  de  22 

98
Ver: h​ ttps://www.ibm.com/watson-health  
99
Ver: h ​ ttps://www.ibm.com/products/merge-pacs  
100
  “Algoritmolandia.  Inteligencia  Artificial  para  una  integración  predictiva  e  inclusiva  de  América  Latina. 
Revista  Integración  &  Comercio  #44”  por  el  BID,  INTAL  y  Planeta.  Publicado  en  julio  de  2018,  pp.  350-353. 
Disponible en: 
https://publications.iadb.org/publications/spanish/document/Revista-Integraci%C3%B3n--Comercio-A%C3%
B1o-22-No-44-Julio-2018-Algoritmolandia-inteligencia-artificial-para-una-integraci%C3%B3n-predictiva-e-incl
usiva-de-Am%C3%A9rica-Latina.pdf​ (consultado en marzo de 2020). 
101
Ver: h ​ ttps://www.microsoft.com/en-us/ai/ai-for-health  
102
  “Microsoft  busca  mejorar  la  salud  a  través  de  la  inteligencia  artificial”  por ComunicarSe. Publicado el 30 
de enero de 2020. Disponible en: 
https://www.comunicarseweb.com/noticia/microsoft-busca-mejorar-la-salud-traves-de-la-inteligencia-artific
ial​ (consultado en junio de 2020). 

 
33 
 
 
 
103
capas .  Otro  proyecto  ya  disponible  es  la  API  de  Cloud  Healthcare  que  permite  el 
intercambio  estandarizado  de  datos  entre  aplicaciones  de  atención  sanitaria  y  soluciones 
104
basadas  en  Google  Cloud .  En  su  portal  Google  Health,  la  empresa  publica  sus  diversos 
proyectos  de  investigación,  como  el  uso  de  IA  para  predecir  con  precisión  las  lesiones 
renales  agudas  en  pacientes  hasta  48  horas  antes  de  lo  que se diagnostica en la actualidad
105
,  y  herramientas  que  ya  están  disponibles.  Además,  Alphabet  -la  empresa  que  aloja  a 
106
Google-  adquirió  en  2014  a  Verily ,  una  empresa  de  ciencia,  tecnología  y  salud  que 
desarrolla distintas aplicaciones de IA para detectar enfermedades. 
107
En  cuanto  a  la  disponibilidad  de  bases  de  datos,  el  Dataset  Search  de  Google   facilita  la 
búsqueda  de  bases  de  datos  utilizando  la  tecnología  de  su motor de búsqueda principal, lo 
que  dio  cuenta  de  su  utilidad  durante  la  pandemia  por  COVID-19,  debido  a  la  cantidad  y 
diversidad  de  sets  de  datos  producidos  a  nivel  mundial  en  el  marco  de  las  investigaciones 
para conseguir la vacuna y los mejores tratamientos para lidiar con el virus. 

Finalmente,  un  caso  de  tecnología  diseñada  para  la  salud  pública  es  el  de  la  empresa 
108
Appriss  Health   que ofrece un sistema basado en IA que permite identificar si una persona 
tiene  hepatitis  C,  para  así  poder  indicar  un  tratamiento.  Estos  sistemas,  además,  analizan 
datos  de  vigilancia  de  la  salud  para  monitorear  las  tasas  de  tratamiento  y  curación  dentro 
de  un  municipio y así poder evaluar el progreso hacia los objetivos del tratamiento. Por otro 
lado,  algunos  Estados  están  utilizando  algoritmos,  también  de  Appriss,  “aplicados  a  las 
bases  de datos de monitoreo de medicamentos recetados para identificar posibles compras 
109
al médico o prescripción incorrecta”.  

C. España: Detección del cáncer de mama 


Un  equipo  de  investigadores  del  Instituto  de  Física  Corpuscular,  centro  mixto  del  Consejo 
Superior  de  Investigaciones  Científicas  (CSIC),  la  Universidad  de  Valencia  y  la  Universitat 
Politècnica  de  Valencia  junto a otros siete centros internacionales desarrollan un sistema de 
ayuda  a  la  detección  del  cáncer  de  mama  más  fiable  que  los  existentes  hasta  el presente y 
que basa su eficacia en Redes Neuronales y algoritmos predictivos. 

Este  sistema  es  resultado  del  Digital  Mammography  DREAM  Challenges,  “un  proyecto 
mundial  impulsado  por  las  principales  instituciones  americanas  de  lucha  contra  el  cáncer 
110
junto a multinacionales como IBM y Amazon”, explican en un artículo de El Independiente . 

103
Ver: h​ ttps://es.scribd.com/document/322744973/GoogleLeNet  
104
Ver: h ​ ttps://cloud.google.com/healthcare/  
105
Ver: h ​ ttps://deepmind.com/blog/predicting-patient-deterioration/  
106
Ver: h ​ ttps://verily.com/  
107
Ver: h ​ ttps://datasetsearch.research.google.com/  
108
Ver: h ​ ttps://apprisshealth.com/  
109
  “Algorithmic  accountability  policy  toolkit”  por  AINow.  Publicado  en  octubre  de  2018.  Disponible  en: 
https://ainowinstitute.org/aap-toolkit.pdf​ (consultado en junio de 2020). 
110
  “Inteligencia  artificial  para  reducir  falsos  positivos  en  cáncer  de  mama”  por El Independiente. Publicado 
el 25 de enero de 2018. Disponible en: 

 
34 
 
 
 
111
D. África: los casos de Kenia y Sudáfrica  
112
En Kenia, el chatbot gratuito Sophie Bot  se basa en diversas técnicas de IA para procesar y 
responder  preguntas  sobre  salud  sexual  y  reproductiva.  El  sistema  fue  entrenado  con 
información  verificada  sobre  sexualidad  y  salud  sexual  y  reproductiva  y  comunica  la 
información  a  sus  usuarios  a  través  de  conversaciones  guiadas  por  mensajes  de  texto  o 
chats  de  voz.  Sus  características  incluyen  foros  anónimos  y  bots  de  chat  digital  integrados 
113
en la aplicación, Facebook, Telegram, Messenger y Twitter . 
114
Por  su  parte,  en  Sudáfrica  se  encuentra  la  compañía  Numberboost   que  trabaja  para 
desarrollar  un  sistema  que  permita  a  los  ciudadanos  ubicar  clínicas  de  salud  móviles 
cercanas,  un  servicio  que  podría ayudar a mejorar el acceso de los ciudadanos a la atención 
médica. 

4. El  trabajo  con  datos  personales  y 


sensibles 
Las  leyes  de  protección  de  los  datos  personales  aparecieron  por  primera  vez  en  la  década 
de  1970,  en  el  estado  de  Hessen  en  Alemania  y,  un  poco  más  tarde,  en  Suecia.  La  Ley  de 
Suecia  de  1973,  así  como  las  legislaciones  que  se  fueron  sancionando  durante  esos  años, 
reflejaban  el  sentimiento  de  preocupación  de  la época sobre el reciente uso de sistemas de 
115
información ​. 

La  acumulación  de  datos  genera  nuevos  conocimientos,  nuevas  aplicaciones  y  nuevas 
funcionalidades.  Algunos  de  los  datos  con  los  que  trabajan  quienes  desarrollan  estos 
sistemas  son  los  datos  personales  y,  fundamentalmente,  los  datos  sensibles,  como  es  el 
caso de los datos de salud. 

https://www.elindependiente.com/vida-sana/2018/01/25/inteligencia-artificial-reducir-falsos-positivos-canc
er-mama/​ (consultado en junio de 2020). 
111
  “Artificial  Intelligence.  Starting  the  policy  dialogue  in  Africa”  por  Ana  Brandusescu,  Juan  Ortiz  Freuler  y 
Dhanaraj Thakur para World Wide Web Foundation. Publicado en diciembre de 2017. Disponible en: 
http://webfoundation.org/docs/2017/12/Artificial-Intelligence-starting-the-policy-dialogue-in-Africa.pdf 
(consultado en junio de 2020). 
112
Ver: h​ ttps://www.facebook.com/misssophiebot/  
113
  “Sophie  Bot  Sexual  Reproductive  Health  app”  por  Department  of  Information  Technology  de  la  Jomo 
Kenyatta University of Agriculture and Technology. Disponible en: 
http://www.jkuat.ac.ke/departments/it/sophie-bot-sexual-reproductive-health-app/  (consultado  en  junio  de 
2020). 
114
Ver: h ​ ttps://www.numberboost.com/  
115
  Saarenpää,  Ahti.  Europa  y  la  protección  de  los  datos  personales.  Revista  de  Derecho  Informático​.  N°3, 
diciembre 2003. pp 15-29. Disponible en: 
http://web.uchile.cl/vignette/derechoinformatico/CDA/der_informatico_completo/0,1492,SCID%253D14232
%2526ISID%253D507,00.html​ (consultado en junio de 2020). 

 
35 
 
 
 
En  Argentina,  los  datos  personales  son  definidos  en  el  artículo  2  de la Ley de Protección de 
Datos  Personales  N°  25.326  -que  data  del  año  2000-  como  “información  de  cualquier  tipo 
referida  a  personas  físicas  o  de  existencia  ideal  determinadas  o  determinables”.  Por  otro 
lado,  la  definición  de  datos  sensibles  dice  que  estos  son  “datos  personales  que  revelan 
origen  racial  y  étnico,  opiniones  políticas,  convicciones  religiosas,  filosóficas  o  morales, 
afiliación sindical e información referente a la salud o a la vida sexual”. 

Con  respecto  a  los  datos  de  salud,  en  el  artículo  8  de  la  ley se indica: “Los establecimientos 
sanitarios  públicos  o  privados  y  los  profesionales  vinculados  a  las  ciencias  de  la  salud 
pueden  recolectar  y  tratar  los  datos  personales  relativos  a  la  salud  física  o  mental  de  los 
pacientes  que  acudan  a  los  mismos  o  que  estén  o  hubieren  estado  bajo  tratamiento  de 
aquéllos, respetando los principios del secreto profesional”. 

Es  menester  recordar  que  las  técnicas  basadas  en  análisis  de  grandes  volúmenes  de datos 
necesitan  cantidad  y  calidad  en  los  datos  para  disminuir los sesgos que suelen encontrarse 
en  los  resultados  y,  por  lo  tanto,  en  las  decisiones  que  toman  los  sistemas algorítmicos. En 
el  caso  de  la  salud, una mejora en la cantidad de datos puede resolverse con más imágenes 
de  diagnóstico;  entrevistas  a  más  pacientes;  entre  otros.  Por  otro  lado,  la  mejora  en  la 
calidad  puede  significar,  como  explica  Enzo  Ferrante,  que  se  necesite  sumar  datos  como el 
116
género , la edad, el origen étnico, y los datos demográficos, en general. 

Para  entender  mejor  esto  es  útil  remitir  a  la  reciente  investigación  que  realizó  Ferrante 
junto  a  Larrazabal,  Milone,  Nieto  y  Peterson,  mencionada  anteriormente,  en  la  que 
detectaron  el  impacto  del  desbalance  de  género  en  bases  de  datos  de  rayos  X  al  entrenar 
117
clasificadores basados en Redes Neuronales Convolucionales (CNNs) .  

De  acuerdo  con  Enzo  Ferrante,  para  disminuir  algunos  sesgos,  como  puede  ser  el  de 
género,  es  necesario  sumar  esta  variable  al  set  de  datos  para  poder  chequear  si  el 
algoritmo  que  se  está  desarrollando  o  utilizando  es  justo.  Sobre  el  estudio  publicado  en 
abril  de  2020,  El investigador explica que “las diferencias son estadísticamente significativas, 
no  son  gigantes,  pero  lo  que  nosotros  mostramos  es  la  tendencia.  El  objetivo  era  ver  que 
existe  el  ​bias  ​y  concientizar  a  la  comunidad  de  investigadores  en  el  área  de  que  es 
importante,  por  lo menos, informar los datos demográficos de los datos que se usaron para 
el  estudio.  No  todos  lo  hacen.  A  nosotros  nos  costó  encontrar  ​datasets  ​públicos  en  los  que 
pudiéramos entrenar nuestro modelo con información de género”. 

116
  Aunque  sería  más  apropiado  referirse  al  sexo  biológico,  debido  a  que  lo  que  influye  en  cuestiones  de 
salud son los cromosomas, los genitales, las hormonas y las gónadas. 
117
  “Gender  imbalance  in  medical  imaging  datasets  produces  biased  classifiers  for  computer-aided 
diagnosis”  por  Agostina  J.  Larrazabal,  Nicolás  Nieto,  Victoria  Peterson,  Diego  H.  Milone,  y  Enzo  Ferrante, 
miembros  del  Research  Institute  for  Signals,  Systems  and  Computational  Intelligence  sinc,  Universidad 
Nacional  del  Litoral  (CONICET),  Santa  Fe,  Argentina;  Instituto  de  Matemática  Aplicada  del  Litoral, 
Universidad  Nacional  del  Litoral  (CONICET),  Santa  Fe,  Argentina;  y  Facultad  de  Ingeniería,  Universidad 
Nacional  de  Entre  Ríos,  Oro  Verde,  Argentina.  Editado  por  David  L.  Donoho,  Stanford  University, Stanford, 
CA. Aprobado el 30 de abril de 2020. Disponible en: 
https://www.pnas.org/content/pnas/117/23/12592.full.pdf​ (consultado en junio de 2020). 

 
36 
 
 
 
“Nosotros  lo  que  remarcamos  con  este  estudio  es  que  datos  de  este  tipo,  que  se  llama 
‘atributo  sensible’  -en  el  sentido  sensible  del  algoritmo,  aclara  Ferrante-  o  ‘atributo 
protegido’,  son  variables  frente  a  las  cuales  uno  quiere  que  el  algoritmo  sea  invariante.  Es 
decir,  yo  no  quiero  que  mi  algoritmo  sea  mejor  para  hombres  o  para  mujeres,  no  quiero 
que  sea  mejor  para  gente  más grande o más joven. Entonces, ese tipo de variables, frente a 
las  que  vas  a  querer  chequear  que  tu algoritmo sea justo, son necesarias que estén porque 
sino no se pueden hacer estos estudios de​ fairness​”. 

Sin  embargo,  aunque  no  se  incluyan  datos  personales  como  el  nombre  y  apellido  de  la 
118
persona ,  estos  datos,  cruzados  con  los  de  salud,  pueden  habilitar  la  identificación  de  los 
119
titulares  de  esos  datos  -incluso  a  pesar  de  atravesar  procesos  de  disociación   de  datos, 
120
anonimización o seudonimización -, y esto, además de vulnerar la privacidad y la intimidad 
de una persona, puede tener efectos discriminatorios sobre esta. 

El  conflicto  entre  privacidad  y  desarrollo  de  una  mejor  Inteligencia  Artificial  parece 
inevitable  y  se  presenta  de  forma  tal  que  parece  que  hay  que  optar  por  uno  o  por  otro.  El 
mensaje  que  predomina  es  que  o  se protege la privacidad de las personas, o se desarrollan 
más  y  mejores  tecnologías  que  permitan  el  avance  de  la  ciencia médica, como puede ser la 
mejora en los diagnósticos. 

Sobre  esto,  la  Dra.  Johanna  Faliero, abogada especialista en protección de datos personales 


y  en  datos  en  el  ámbito  de  la  salud  asegura  que  los datos de salud “pueden emplearse con 
fines  científicos  y  estadísticos,  aunque  deben  estar  anonimizados  o  disociados  del  titular, 
para  que  este  no  sea  identificado  (si  esto  no  es  posible  desde  un fin práctico, no deben ser 
divulgados  bajo  ningún concepto); es preciso que su recolección sea limitada en el tiempo, y 
que  este  lapso  esté  indicado; que se aclare cómo se trabajará con esta información y dónde 
se  almacenará;  además,  la  recopilación  tiene  que  cumplir  con  tres  requisitos:  finalidad, 
proporcionalidad  y  razonabilidad”.  “Si  oponemos  salud  a  privacidad, lo que debatimos es el 
derecho  de  hacer  las  cosas  mal.  La  Ley  contempla  situaciones  de  excepcionalidad,  permite 
manipular  datos  sensibles,  pero  es  preciso  cumplir  con  toda  la  normativa  para  alcanzar  el 

118
  Lo  que se entiende por datos personales no se limita a nombres y apellidos sino que incorpora, además, 
cualquier  elemento  que  pueda  llevar  a  la  identificación  de una persona. Por eso, los identificadores únicos 
de  teléfonos  y  computadoras,  como  los  datos  de  geolocalización  y  los  biométricos,  constituyen  datos 
personales  y  deben  quedar  sujetos  a  protección  legal  incluso  cuando  no  se  encuentran  directamente 
asociados  a  un  nombre  propio.  Si  se  los  comparte  o  se  los abre, es necesario definir un protocolo robusto 
de  anonimización  o  seudonimización  para  evitar  su  mal  uso  o  su  empleo  con  fines  distintos  a  los 
expresados  cuando  se  los  recolectó  en  una  primera  instancia.  Aunque  la  base  de  datos  haya  sido 
anonimizada,  su  cruce  con  otras  puede  derivar  en  la  reidentificación  de  algunos individuos (Kupersmith, J. 
[2013].  “The  Privacy  Conundrum  and  Cenomic  Research:  Re-identification  and  Other  Concerns”  en  ​Health 
Affairs  Blog​.  Disponible  en:  ​https://www.healthaffairs.org/do/10.1377/hblog20130911.034137/full/​. 
[Consultado en junio de 2020]). 
119
  La  disociación  de  los  datos  es  todo  tratamiento  de  datos  personales  de  manera  que  la  información 
obtenida no pueda asociarse a persona determinada o determinable. 
120
  La  anonimización es el tratamiento de datos personales de manera tal que sea imposible vincularlos con 
la  persona  a  quien  se  hubiese  podido  identificar  a través de aquellos. La seudonimización, por su parte, es 
el  tratamiento  de  datos  personales  de  manera tal que no se los pueda atribuir a un individuo determinado 
sin  utilizar  información  adicional.  En  este  caso  se  reemplaza  el  dato  identificador  (nombre,  identificador 
único, etc.) por un código. 

 
37 
 
 
 
121
bien  jurídico  ‘salud’  sin  vulnerar  la  privacidad  de  los  pacientes” .  Con  respecto  a  la 
122
anonimización y disociación, Faliero remarca en que estas deben ser irreversibles . 

5. Riesgos e impactos sociales 


Como  se  vio  en  varios  de  los  ejemplos  presentados  en  este  trabajo,  las  tecnologías  que 
pueden  ser utilizadas por los médicos, como forma de acompañamiento, pueden permitir la 
detección  y el diagnóstico temprano de una enfermedad o condición de salud, lo que podría 
repercutir  en  la  decisión  más  rápida  y  precisa  de  los  tratamientos  necesarios  y  mejorar  las 
posibilidades en la recuperación del paciente. 

En  una  charla  que  dio  a  través  de  Instagram,  la  Dra.  Sandra  Wierzba,  abogada  especialista 
en  e-salud  y  telemedicina,  contó  que  en  la  actualidad  existen  aplicaciones  de 
autoevaluación  para  el  diagnóstico  de  diabetes,  de  trastorno bipolar, de ictericia neonatal y 
123
de  melanoma ​.  Sin  embargo,  explica  que  la mayoría de estos productos desarrollados por 
empresas  y  puestos  a disposición en las tiendas de aplicaciones -ya sea de pago o gratuitas- 
tienen  problemas  de  calidad  y  de  seguridad.  Por  ejemplo,  “a  pacientes  de  diabetes  se  les 
hacía  una  prescripción  en base a datos pero no se contemplaba otras medicaciones, tipo de 
vida  o  alimentación”,  explica  al  citar  una  investigación  realizada  por  el  Instituto  de 
Tecnología, Salud y Derecho de la Universidad de Chicago. 

Además,  un  impacto  que  tienen  estas  tecnologías  en  las  personas  y  en  la  sociedad  en  su 
conjunto  es  lo  que  se  conoce  como  su  pervasividad;  es  decir  que  las  personas  no  pueden 
escapar  a  estos  sistemas,  una  vez  que  están  instalados.  En  la  medida  en  que  existen  cada 
vez  más  ciudades  inteligentes  o  implementaciones  que  son  obligatorias,  las  personas  no 
pueden  ejercer  el  derecho  de  “​opt  out​”  (de  salir).  El  otro  impacto  no  menor  es  el  de  la 
escalabilidad  de  estas  tecnologías,  no  sólo  por  la  velocidad  con  la  que  crecen  en  sus 
capacidades  sino  también  por  su  magnitud  en  su  alcance  (un  error  en  una  serie  de 
algoritmos  o  los  sesgos  de  una  o  varias  bases  de  datos  pueden  tener  impactos  a  escala 
global, debido a la forma en que estos sistemas se implementan). 

Por  otro  lado,  destaca  la falta de privacidad al tener que ceder tanta información personal a 


empresas  de  grandes  agregadores  de  datos.  Según  una  investigación  realizada  por  la 

121
  “Coronavirus  -  ‘Si  oponemos  salud  a  privacidad,  lo que debatimos es el derecho de hacer las cosas mal’” 
por  Celeste  Mottesi  para  Otrawebdetecno.  Publicado  el  1  de  abril  de  2020.  Disponible  en: 
https://otrawebdetecno.com/2020/04/01/coronavirus-si-oponemos-salud-a-privacidad-lo-que-debatimos-es
-el-derecho-de-hacer-las-cosas-mal/​ (consultado en junio de 2020). 
122
  “Advierten  necesidad  de  fortalecer la protección de datos personales ante el escenario de pandemia por 
COVID-19”  por  Facundo  Sagardoy  para  Momarandu.com.  Publicado  el  3  de  abril  de  2020.  Disponible  en: 
http://www.momarandu.com/notix/noticia/08212_advierten-necesidad-de-fortalecer-la-proteccin-de-datos-
personales-ante-el-escenario-de-pandemia-por-covid-19.htm​ (consultado en junio de 2020). 
123
  “IA,  telemedicina  y  Covid-19”  una  charla  entre  la  Dra.  Sandra  Wierzba  y  Cecilia  Danesi.  Emitida  el  19 de 
mayo  de  2020.  Disponible  en:  ​https://www.instagram.com/tv/CAY2ZWmHE7N/  (consultado  en  junio  de 
2020).  

 
38 
 
 
 
124
Universidad  del  País  Vasco , una serie de aspectos problemáticos de la implementación de 
tecnologías de IA en salud, son: 

1. “La  toma de decisiones basadas exclusivamente en procesos de automatización o en 
perfiles  obtenidos  de  los  pacientes,  sin  perjuicio  de  su  evidente  utilidad,  puede 
afectar a la autonomía del paciente, disminuyéndola o vaciándola de contenido. 
2. La  tendencia  a  la  automatización  en  la  toma  de  decisiones  cuando  están  basadas 
exclusivamente  en  propuestas  algorítmicas  del  sistema  de  IA,  que  pueden  anular  la 
iniciativa  y  la  independencia  decisional  del  profesional,  sustituyéndola,  a  veces 
siendo aceptada por aquél sin fundamentos suficientes. 
3. El  riesgo  de  que,  al  clasificar  o  estratificar a los pacientes en grupos o subgrupos, de 
acuerdo  con  los  perfiles  personales  obtenidos  de  ellos  con  diversos  criterios  u 
objetivos,  se  tomen  decisiones  discriminatorias,  estigmatizadoras  o  arbitrarias 
basadas exclusivamente en esos perfiles. 
4. La opacidad sobre los elementos esenciales y sobre el proceso por el que un sistema 
de  IA  ha  llegado  a  una  conclusión  decisoria  (indica  su  propuesta,  pero  no  aporta 
información  significativa  sobre  en  qué  elementos  o  factores  causales  ha 
fundamentado  aquella),  comporta  el  riesgo  de  que  el  profesional  de  la  salud  no 
pueda  validar  y  confirmar  o  descartar  razonadamente  la  propuesta  del  sistema  al 
pretender  adoptar  su  propia  decisión,  lo  que  puede  conducir  a  discutir  su  posible 
responsabilidad  si  se  acredita  que  hubo  algún  error  en  el  sistema  o  en  el  propio 
profesional que repercutiera en el empeoramiento del estado de salud del paciente. 
5. El  aumento  de  otras  prácticas  discriminatorias  o  estigmatizadoras,  las  cuales  están 
prohibidas por la comunidad internacional y por la legislación interna.” 

I. Problemas de seguridad 
Uno  de  los  mayores  riesgos  que  existen  como  consecuencia  de  la  digitalización  de  la 
información  -en  cualquier  ámbito,  no  sólo  en  la  salud-  es  el  de  la  filtración  de  la 
información,  con  la  particularidad,  no  menor,  de que en el caso de la salud, estos son datos 
sensibles  debido  a  que  tienen  un  enorme  potencial  discriminador,  por  lo  que  deben  gozar 
de  la  mayor  protección  en  todo  el  proceso  desde  su  recolección,  tratamiento  y 
almacenamiento.  Asimismo,  una  consecuencia  ulterior  de  los  problemas de seguridad es la 
vulneración de la privacidad. 

Un  ejemplo  concreto  que  da  cuenta  de este problema es de la fisura en la protección de los 


datos  que  tuvo  el  Ministerio  de  Salud  de  Chile  en  2016,  revelado  por  el  Centro  de 
125
Investigación  Periodística .  Historias  clínicas  y  tratamientos  de  pacientes  con VIH, mujeres 

124
  “Inteligencia  Artificial  aplicada  a  la  salud:  ¿Qué  marco  jurídico?”  por  Carlos  María  Romeo  Casabona  y 
Guillermo Lazcoz Moratinos para la Universidad del País Vasco. Publicado en marzo de 2020. Disponible en: 
https://www.fundacionmercksalud.com/wp-content/uploads/2020/03/1.3.-IA-APLICADA-A-LA-SALUD.-Carlos
-M.-Romeo-Guillermo-Lazcoz.pdf​ (consultado en junio de 2020). 
125
 “Grave falla en la red del Minsal dejó expuesta información confidencial de pacientes”, por Víctor Carvajal 
y Matías Jara para CIPER. Publicado el 5 de marzo de 2016. Disponible en: 
https://ciperchile.cl/2016/03/05/grave-falla-en-la-red-del-minsal-dejo-expuesta-informacion-confidencial-de-
pacientes/​ (consultado en junio de 2020). 

 
39 
 
 
 
que  pidieron  la  píldora  del  día  después  e  información  de  personas  con  enfermedades 
mentales,  junto  con  sus  nombres,  RUT  (Registro  Único  Tributario)  y  domicilio  quedaron 
expuestos  durante  meses  con  posibilidad  de  acceso  por  parte  de  100.000  funcionarios  y 
proveedores externos. La base de datos era de, al menos, tres millones de archivos. 

En 2017, el hospital de St Bartholomew, en el Reino Unido, fue una de las víctimas de uno de 
los  ciberataques  internacionales más graves del mundo. Durante el ataque, “un par de salas 
fueron  bloqueadas,  los  sistemas  telefónicos  fueron  apagados  y  las  bases  de  datos 
se  volvieron  inaccesibles.  Las  computadoras  infectadas  encriptaban  la  información 
y  demandaban  pagos  en  criptomonedas  para  liberar  el  software  y  los  datos.  El 
ciberataque  tuvo  como  resultado la puesta en riesgo de las vidas de los pacientes: personas 
en  quimioterapia  se  quedaron  sin  tratamiento  durante  el  lapso  del  ataque y otros no 
126
pudieron  entrar  a  cirugía,  entre  muchas  otras  implicaciones” .  Esto  demostró  la 
importancia  de  reforzar  la  seguridad  de  los  sistemas  de  instituciones  que  resguardan 
datos importantes y sensibles. 

Sobre  la  gestión  de  la  seguridad  de  la  información,  Marcela  Pallero,  Ing.  en  Sistemas  de 
Información  (UTN)  y  docente  de  Auditoría  y  seguridad  informática  en  la  Universidad  de 
127
Palermo,  dice :  “Cuando  se  habla  de  seguridad,  se  habla  de  la  implementación  de 
controles  y  de  la  gestión  de  riesgos,  ya  que  nunca  hay  recursos  infinitos.  Las  tres 
propiedades  básicas  de  la  seguridad  de  la  información  son  la integridad, la disponibilidad y 
la  confidencialidad.  Ahora,  hay  información  en  tránsito,  está  el  procesamiento,  el 
almacenamiento,  y  después,  tenés  los  sistemas  de  información  y  la  infraestructura  que  le 
da  soporte.  No  se  puede  sólo  implementar  controles  sino  que  además  hay  que  hacer 
planificación,  diseño,  mantenimiento,  que  es  lo  que  implica  el  sistema  de  gestión  de  la 
seguridad, que es la norma 27.001”. 

Una  aclaración  que  hace  Pallero  sobre  la  relación  entre  seguridad  y  protección de datos es 
que  “el  control  de  los  requerimientos  por  protección  de  datos  -que  tiene  relación  con  la 
protección  de  la  privacidad-  corresponde  a  las  áreas  legales  y  los  requerimientos  de 
seguridad  corresponden  a  las  áreas  técnicas  que  se  dedican  a  la  protección  de  la 
información  de  la  organización,  para  resguardar  el  negocio.  En  estos  casos,  son 
organizaciones de salud”. 

II. Vulneración de la privacidad 


Los  sistemas  y  aplicaciones  basados  en  Machine  Learning  o  Deep  Learning  necesitan  de 
datos  para  entrenarse  y  así  poder  llegar  a  distintos  resultados,  ya  sean  diagnósticos, 
clasificaciones,  segmentaciones  o  predicciones.  Como  ya  se  mencionó,  para  mejorar  la 

126
  “Economía  de  datos  e  inteligencia  artificial  en  América  Latina.  Oportunidades  y  riesgos  para  un 
aprovechamiento  responsable” por Constanza Gómez Mont, Claudia May Del Pozo y Ana Victoria Martín del 
Campo,  en  "Inteligencia  Artificial  en  América  Latina  y  el  Caribe"  por  Carolina  Aguerre  (Ed.)  para  CETyS 
Universidad de San Andrés, p. 19. Disponible en: 
https://guia.ai/wp-content/uploads/2020/05/Economia-de-datos-e-inteligencia-artificial-en-America-Latina.p
df​ (consultado en junio de 2020). 
127
Entrevista realizada el 30 de junio de 2020 por Carolina Martínez Elebi para el presente documento. 

 
40 
 
 
 
calidad  de  los  resultados  y  disminuir  los  sesgos,  los  científicos,  investigadores  y 
desarrolladores  aseguran  que  es  necesario  contar  con  más  cantidad  y  variedad  de  datos 
(como  pueden  ser  datos  demográficos,  que  están  compuestos  por  datos  personales  y 
sensibles  de  los  pacientes).  En este sentido, la protección de la privacidad se ve amenazada, 
ya  que  con  mayor  diversidad  de  datos  que  pueden  cruzarse,  las  probabilidades  de 
identificar  o  reidentificar  a  una  persona  aumentan.  Es  importante  remarcar  que  la 
protección  de  la  privacidad  no  es  sólo  por  la  privacidad  en  sí  misma  -como  un  derecho 
humano  que  debe  ser  garantizado-  sino  porque  su  amenaza  tiene  graves  efectos  en  otros 
derechos fundamentales. 

Por  último,  toda  información  de  salud  es  “sensible”  y  debe  guardar  la  mayor  restricción 
debido  a  que  si  esta  información  de  una  persona  se  ve  comprometida,  los  daños  al  titular 
pueden  ir  desde  ser  objeto  de  discriminación,  hasta la posible expulsión de la comunidad o 
de  los  espacios  públicos  frecuentados.  Por  ejemplo,  se  han  hecho  públicos  diversos  casos 
de  discriminación  como  resultado  de  la  información  de  salud,  como  es  el  caso  de  las 
personas  con  VIH  que  se  ven  obstaculizadas  de  conseguir  o  mantener  un  empleo debido a 
128
las  actitudes  estigmatizantes  y  de  exclusión  del  mercado  laboral .  Por  otro  lado,  en  el 
marco  de  la  pandemia  por  coronavirus,  se  conocieron  algunos  casos  de  discriminación  a 
129
personas  contagiadas  y  a  quienes  son  sospechosas  de  tener  COVID-19 .  De  hecho,  el 
Instituto  Nacional  contra  la  Discriminación,  la  Xenofobia  y  el  Racismo  (INADI)  publicó  un 
informe  sobre  las  consultas  recibidas  durante  el  primer  bimestre  del  Aislamiento  Social, 
Preventivo  y  Obligatorio  (del  20  de  marzo  al  20  de  mayo  de  2020)  en  el  que  da  cuenta  de 
que  el  primer  tipo  de  discriminación  referido  en  las consultas es el del “estado de salud” en 
los  siguientes  ámbitos:  laboral;  barrio  o  vivienda;  redes  sociales;  empresas  y  comercios;  y 
130
administración  pública .  Es  por  este  motivo  que,  para  resguardar  la  privacidad  y  la 
protección  de  los  datos  de  las  personas,  deben  utilizarse  mecanismos  de  anonimización, 
131
seudonimización o disociación de los datos . 

Como  se  mencionó  anteriormente,  para  cumplir  con  la  protección de los datos y garantizar 


la  privacidad  -que  son  requisitos  legales  que  responden  a  derechos  fundamentales  de  las 

128
  “VIH  y  trabajo:  de  la  exclusión  laboral  a  la  protección  de  los  derechos”,  por  la  Dirección  de  Sida,  ETS, 
Hepatitis  y  TBC  del  Ministerio  de  Salud  de  la  Nación  (Argentina).  Publicado  el  6  de  octubre  de  2015. 
Disponible en: 
http://www.msal.gob.ar/sida/index.php/noticias/492-vih-y-trabajo-de-la-exclusion-laboral-a-la-proteccion-d
e-los-derechos-​ (consultado en junio de 2020). 
129
  “Coronavirus  en  Argentina:  aumentan  las  denuncias  por  discriminación  a  los  contagiados  y  a  quienes 
son  sospechosos  de  tener  COVID-19”  por  Joaquín  Cavanna  para  Infobae.  Publicado  el  16  de abril de 2020. 
Disponible en: 
https://www.infobae.com/sociedad/2020/04/16/coronavirus-en-argentina-aumentan-las-denuncias-por-disc
riminacion-a-los-contagiados-y-a-quienes-son-sospechosos-de-tener-covid-19/  (consultado  en  junio  de 
2020). 
130
 “Informe: Consultas cuarentena COVID-19. Consultas recibidas en el INADI durante el primer bimestre de 
A.S.P.O.  (20-3  al  20-5)”  por  Instituto  Nacional  contra  la  Discriminación,  la  Xenofobia  y  el  Racismo  (INADI). 
Publicado el 5 de junio de 2020. Disponible en: 
https://www.argentina.gob.ar/sites/default/files/informe_consultas_cuarentena_20_marzo_2020_alta_1.pdf 
(consultado en junio de 2020). 
131
Ver el apartado “Tecnologías para la salud que protegen la privacidad”. 

 
41 
 
 
 
personas-  deben  implementarse  medidas  técnicas  y,  como  explica  Marcela  Pallero,  esta 
división  entre  las  áreas  técnicas  y  legales  es  uno  de  los  factores  que  influye  en  los 
problemas  en  materia  de  protección  de  datos: “La protección de los datos es algo que debe 
hacerse  para  cumplir  con  un  aspecto  legal  pero  el que tiene que implementar los controles 
es  un  área  técnica  y  la  gente  de  seguridad  no  aprende  protección  de  datos.  Si  mirás  la 
historia  de  la  gestión  de  la  seguridad,  no  se  ve a la seguridad desde el lado de los derechos 
humanos”. 

“En  el  ámbito  de  la  gestión  de  la  seguridad,  cuando  se  habla  de  estándares  o  controles 
mínimos  de  seguridad,  no  viene  incluida  la  protección  de  los  datos.  Entonces,  si  la 
organización  no  tiene  ese  principio  de  cumplimiento  de  la  protección  de  los  datos,  que  es 
un  tema  legal,  en  general  no  se  le  presta  atención”,  dice  Pallero  y  asegura  que  para  lograr 
una  correcta  implementación  de  esta  protección  debe  haber  un  efectivo  control  por  parte 
de  la  autoridad  de  aplicación de protección de datos personales. Es decir, de acuerdo con la 
especialista  en  seguridad  informática,  “seguridad  y  protección  de  datos  se  vinculan  en  la 
medida  en  que  el  Estado  les  exija  el  cumplimiento  a  las  organizaciones  y  capacite  a  los 
ciudadanos  sobre  la  importancia  de  sus  datos  y  los  riesgos  que  se  corren”.  “Si  las 
organizaciones  no  están  obligadas  a  implementar  correcta  seguridad  y  correcta  protección 
de datos, las dos cosas, en general, en la práctica, falla”, concluye. 

III. Discriminación  arbitraria  (discriminación 


algorítmica) 
¿Cuáles  son  los  criterios  que  utiliza  un  sistema  para  tomar  una  decisión?  Como  lo define el 
BID  en  su  documento  sobre  ​La  gestión  ética  de  los  datos​,  “la  discriminación  algorítmica 
refiere  a  aquellos  procesos  a  través  de  los  cuales  los  distintos  tipos  de  discriminación  que 
ocurren  en  el  mundo  real  son  reproducidos  en  entornos  de  datos,  o  a  los  que  surgen 
132
exclusivamente  en  ellos” .  Algunos  ejemplos  de  esto  son  los  sistemas  de  reconocimiento 
133
facial que producen más errores al procesar rostros no caucásicos .  

Los  sistemas,  a  través  de  los  datos  que  se  utilizan  para  entrenar  a  los  algoritmos,  reflejan 
los  sesgos  de  las  personas  que  los  eligieron  y  que  desarrollan  los  modelos  algorítmicos. 
También  puede  haber  insuficiencia,  errores,  exceso  o  déficit  de  representación  de  ciertos 
grupos  de  la  sociedad  (diversas  etnias,  grupos  etarios,  de  sexo  o  género,  minorías,  entre 
otros). Esto suele suceder por la opacidad que envuelve a los datos y algoritmos que forman 
parte  de  estos  sistemas.  Debido  a  esta  falta  de  transparencia, y a que para la mayoría de la 
población  los  sistemas  informáticos  resultan  ser  mecanismos incomprensibles, se los llama 
“caja negra”.  

132
  Banco  Interamericano  de  Desarrollo  (BID).  “La  gestión  ética  de los datos. Por qué importa y cómo hacer 
un  uso  justo  de  los  datos  en  un  mundo  digital”,  por  César  Buenadicha,  Gemma  Galdon  Clavell,  María  Paz 
Hermosilla,  Daniel  Loewe,  y  Cristina  Pombo.  Publicado  en  marzo  de  2019.  Disponible  en: 
https://publications.iadb.org/es/la-gestion-etica-de-los-datos​ (consultado en mayo de 2020). 
133
  “The  Coded  Gaze:  Unmasking  Algorithmic  Bias”  por  Joy  Buolamwini.  Publicado  el  6  de  noviembre  de 
2016. Disponible en: ​https://www.youtube.com/watch?v=162VzSzzoPs​ (consultado en junio de 2020). 

 
42 
 
 
 
Existen tres tipos de opacidad:  

1. Opacidad  intencional:  cuando,  por  ejemplo,  el  algoritmo  no  es  transparente  por 
motivos relacionados con la propiedad intelectual. 
2. Opacidad  analfabeta:  ​debido  a  la  falta  de  competencias  técnicas  de  las  personas 
potencialmente  afectadas  para  entender  el  funcionamiento  de  los  algoritmos  y  los 
modelos de aprendizaje automático. 
3. Opacidad  intrínseca:  dificultad  de  explicar  los  procesos  algorítmicos  en  los  que 
participan redes neuronales complejas. 

6. Marco regulatorio internacional 


El  marco  regulatorio  internacional que está involucrado en la Inteligencia Artificial y que hay 
que  tener  en  cuenta  para  su  desarrollo  y  para  sus  límites  está  conformado  por  las 
siguientes normativas: 

1. Tratados internacionales de Derechos Humanos. 


a. Declaración Universal sobre el Genoma Humano y los Derechos Humanos. 
b. Declaración Internacional sobre los Datos Genéticos Humanos. 
c. Declaración sobre Bioética y Derechos Humanos. 
d. Convención sobre los Derechos de las Personas con Discapacidad. 
e. Declaración Universal de Derechos Humanos. 
f. Declaración Americana de los Derechos y Deberes del Hombre. 
g. Pacto Internacional de Derechos Económicos, Sociales y Culturales. 
h. Pacto Internacional de Derechos Civiles y Políticos. 
i. Convención  Americana  sobre  Derechos  Humanos:  Pacto  de  San  José  de 
Costa Rica. 
j. Convención  Internacional  sobre  la  Eliminación  de  todas  las  formas  de 
Discriminación Racial. 
k. Convención  sobre  la  Eliminación  de  todas  las  Formas  de  Discriminación 
contra la Mujer. 
2. Reglamento  General  de Protección de Datos de la Unión Europea (haciendo hincapié 
en  los  principios  que  rigen  en  la  legislación  europea:  el  derecho  a  la  explicación 
134
significativa ;  y  el  derecho  de  oposición a decisiones automatizadas [“human in the 
loop” o personas involucradas en el proceso]). 
3. Principios  de  armonización  con  las  leyes  regionales  de  Protección  de  Datos 
Personales  y  adecuación  al  GDPR  y  otras  normativas  relevantes  internacionalmente 
en cuanto a los requerimientos sobre el flujo transfronterizo de datos. 
4. Convenios  internacionales  y  leyes  nacionales  en  materia  de  propiedad  intelectual 
(patentes  o  derechos  de  autor),  por  ser  las  herramientas  a  través  de  las  que  se 
protegen  los  algoritmos  y  puede  bloquearse  el  acceso  a  estos,  impidiendo  la 
transparencia  de  los  sistemas  de  Inteligencia  Artificial.  Esto también sucede a través 
de la herramienta técnico-legal del secreto industrial. 

134
En este caso, derecho del paciente a recibir una explicación. 

 
43 
 
 
 
5. Normativas de protección de los consumidores. 
6. Convenio  108:  Guía  sobre  Inteligencia  Artificial  y  Protección de Datos Personales del 
Comité  Consultivo de la Convención para la Protección de las Personas con Respecto 
135
al  Tratamiento  Automatizado  de  Datos  de  Carácter  Personal .  La  Argentina 
suscribió al Convenio en enero de 2019. 
7. Estándares  Iberoamericanos  de  Protección  de  Datos  Personales  publicados  por  la 
Red Iberoamericana de Protección de Datos Personales. 

El  Reglamento  General  de  Protección  de  Datos  (RGPD)  de  la  Unión  Europea,  que  entró  en 
vigor  el  25  de  mayo  de  2016  y  fue  de  aplicación  obligatoria  para  todos  los  Estados 
miembros  a  partir  del  25  de  mayo  de  2018, es el ejemplo más avanzado de reglas y marcos 
de  referencia  que  explica  cómo  utilizar  los  datos  correctamente  y  que  es  considerado  un 
nuevo  estándar  global  debido  a  que  es  el  resultado  de  un  largo  proceso  de  deliberación  y 
consulta  en el ámbito europeo. Entre sus objetivos, busca salvaguardar a los ciudadanos del 
procesamiento  automatizado  de  datos,  que  está  referido  a procesamientos algorítmicos, lo 
que  vuelve  al  Reglamento  en  pionero  en  este  tipo  de  regulación.  Las  personas  tienen  el 
derecho  a  no  ser  sometidas a una decisión basada puramente en un proceso automatizado 
si esta puede tener efectos legales o significativos en su vida. 

Sobre el manejo de datos personales, el RGPD establece seis principios básicos: 

1. Deben ser tratados de forma lícita, leal y transparente;  


2. Se deben recolectar con fines determinados explícitos y legítimos; 
3. Deben ser adecuados, pertinentes y limitados a lo necesario dependiendo del uso; 
4. Deben ser exactos y estar siempre actualizados; 
5. Deben  mantenerse  de  forma  tal  que  se  permita  la  identificación  de  los  interesados 
durante no más tiempo del necesario para los fines del tratamiento; 
6. Deben ser tratados de tal manera que se garantice su seguridad. 

7.Regulación vigente en Argentina 


Lo  que  sigue  es  una  breve  guía  de  las  normativas  nacionales  vigentes  en  Argentina  que 
están  involucradas  en  la  regulación  del  diseño,  desarrollo  e  implementación  de  las 
tecnologías de Inteligencia Artificial aplicadas al ámbito de la salud en el país: 

1. Ley  de  Derechos  del  Paciente  en su Relación con los Profesionales e Instituciones de 


136
la Salud (26.529) .  
137
2. Ley de Firma Digital (25.506) . 
138
3. Ley de Protección de los Datos Personales (25.326) . 

135
  El  Convenio  108  es  el  único  instrumento multilateral de carácter vinculante en materia de protección de 
datos personales, que tiene por objeto proteger la privacidad de los individuos contra posibles abusos en el 
tratamiento de sus datos. Disponible en: ​https://rm.coe.int/16806c1abd​ (consultado en junio de 2020). 
136
Ver: h​ ttp://servicios.infoleg.gob.ar/infolegInternet/anexos/160000-164999/160432/norma.htm  
137
Ver: h ​ ttp://servicios.infoleg.gob.ar/infolegInternet/anexos/70000-74999/70749/norma.htm  
138
Ver: h ​ ttp://servicios.infoleg.gob.ar/infolegInternet/anexos/60000-64999/64790/norma.htm  

 
44 
 
 
 
139
4. Ley de Propiedad Intelectual (11.723) . 
140
5. Agenda Digital Argentina (Decreto 996/2018) . 
141
6. Estrategia Nacional de Salud Digital 2018-2023 (Resolución 189/2018) . 
142
7. Estándares de Sistemas Informáticos de Salud (Resolución 680/2018)  
8. Ministerio  de  Salud  y  Desarrollo  Social  -  Dirección  Nacional  de  Sistemas  de 
143
Información en Salud (Disposición 1/2019) . 
9. Ministerio  de  Justicia  y  Derechos  Humanos  -  Oficina  Anticorrupción  (Resolución 
144
21/2019) . 
145
10. Ley de Defensa del Consumidor (24.240) . 
146
Además,  el  Comité  Nacional  Asesor  de  Ética  en  Investigación ,  creado  por  Resolución 
147
Ministerial  1002/16 ,  se  ocupa  de  las  implicancias éticas de las investigaciones en salud en 
las  que  participen  seres  humanos,  con  el  fin  de  proteger  sus  derechos  fundamentales 
ponderando, a su vez, la necesidad de promover la investigación en salud. 

8. Desafíos legales 
Una  de  las  preguntas  que  suele  hacerse  con  respecto  a  la  regulación  de  la  IA  es  si  es 
suficiente  el  marco  normativo  vigente  o si es necesario establecer una regulación específica 
y  qué  debe  tenerse  en  cuenta  en  ambos  casos.  Sobre  esto,  la  abogada  y  especialista  en 
Inteligencia  Artificial,  Cecilia  Danesi,  plantea:  “En  líneas  generales, no existen normas que la 
regulen,  por  eso,  hoy  por  hoy,  debemos  recurrir  a  institutos  jurídicos  análogos  (...)  Estados 
Unidos  tiene  un  proyecto  de  ley  denominado  The  Algorithmic Accountability Act que busca, 
entre  otras  cosas,  que  las  empresas  realicen  evaluaciones  de  impacto.  Si  bien  la  Unión 
Europea  y la ONU emitieron varias resoluciones destacando la necesidad de una regulación, 
148
aún no existe ninguna norma específica”.  

Por  otro  lado, diversos especialistas reconocen que la complejidad de lograr nuevas normas 


que  abarquen  todos  los  aspectos  de  la  materia trae como riesgo que los continuos avances 

139
Ver: h​ ttp://servicios.infoleg.gob.ar/infolegInternet/anexos/40000-44999/42755/texact.htm  
140
Ver: h ​ ttps://www.boletinoficial.gob.ar/detalleAviso/primera/195154/20181105  
141
Ver: 
https://www.argentina.gob.ar/noticias/resolucion-no-1892018-estrategia-nacional-de-salud-digital-2018-202
3  
142
Ver: 
https://www.argentina.gob.ar/noticias/resolucion-6802018-estandares-de-sistemas-informaticos-de-salud  
143
Ver: h ​ ttps://www.boletinoficial.gob.ar/detalleAviso/primera/216549/20190913  
144
Ver: h ​ ttps://www.boletinoficial.gob.ar/detalleAviso/primera/212330/20190730  
145
Ver: h ​ ttp://servicios.infoleg.gob.ar/infolegInternet/anexos/0-4999/638/texact.htm  
146
  Algunas  de  sus  funciones  y  el  listado  de  miembros  del  Comité  pueden  consultarse  en: 
http://www.msal.gov.ar/dis/comite-nacional-asesor-de-etica-en-investigacion/  
147
Ver: 
http://www.msal.gov.ar/dis/wp-content/uploads/sites/11/2016/10/reso-1002-creacion-comite.pdf  
148
  “Inteligencia  artificial:  desafíos  legales  y  marco  regulatorio”  por  ENTELAI.  Publicado  el 10 de septiembre 
de 2019. Disponible en: 
https://entelai.com/2019/09/10/inteligencia-artificial-desafios-legales-y-marco-regulatorio/  

 
45 
 
 
 
tecnológicos  vuelvan  obsoleta  a  la  eventual  norma  en  poco  tiempo,  por lo que hay quienes 
149
consideran  que  debe  analizarse  cuán  eficiente  sería  esto  y, en el caso de que sea posible, 
aseguran  que  serían  más  conveniente  “encuadrar  las situaciones que surjan con motivo del 
uso  de  la IA en las normas jurídicas ya existentes aplicando los principios generales vigentes 
del  derecho  contractual,  de  las  normas  sobre  propiedad  intelectual,  responsabilidad  y 
privacidad  vigentes  como  las  de  nuestro  Código  Civil  y  Comercial,  las  normas  de  la  Ley  de 
150
Defensa del Consumidor o la Ley de Protección de los Datos Personales, entre otras”.  

En  la  Unión  Europea  se  propone  la  creación  de  un  código  de  Conducta,  la  revisión  de  las 
reglas  de  responsabilidad  vigentes  y  la  evaluación  del  impacto  social  que  pueda  llegar  a 
151
tener  la  implementación  de  inteligencia  artificial.   Por  otro  lado,  en  Latinoamérica  se 
presentaron  algunas  propuestas  legislativas  fundadas  en  la  premisa  de  que  son  las 
personas  las  responsables  por  las  decisiones  tomadas  por  la  IA  y  se  han  realizado 
propuestas  de  interpretación  de  las  normas  vigentes  de  cada  país  sobre  responsabilidad 
152
por productos.  

Actualmente,  en  Argentina,  el  desarrollo  Entelai  Pic  -de  la  empresa  Entelai-  es  el  primero 
aprobado  por  la  Administración  Nacional  de Medicamentos, Alimentos y Tecnología Médica 
153
(ANMAT) .  Como  se  indicó  anteriormente,  Fleni  fue  uno  de  los  principales  colaboradores 
de  Entelai  Pic  para  el  desarrollo  de  soluciones  para  el  cerebro  y  fue en esa institución en la 
que,  en septiembre de 2018, se realizaron los ensayos clínicos necesarios para validar el uso 
154
del software para la lectura de resonancias del cerebro ante la ANMAT.  

149
  “Cinco  principios  para  abordar  los  retos  legales  de  la  inteligencia  artificial”  por  Aurelio  López-Tarruella 
para Lvcentinvs. Publicado el 13 de marzo de 2019. Disponible en: 
http://www.lvcentinvs.es/2019/03/13/inteligencia-artificial-y-derecho/​ (consultado en junio de 2020). 
150
  “Inteligencia  Artificial  y  su  marco  normativo”  por  Pablo  Repond  para  Abogados.com.ar.  Publicado  el  11 
de febrero de 2020. Disponible en: 
https://abogados.com.ar/inteligencia-artificial-y-su-marco-normativo/25187​ (consultado en junio de 2020). 
151
  “Regulación  legal  de  la  robótica  y  la  inteligencia  artificial:  retos  de  futuro”  por  María  José  Santos 
González,  para  Revista  Jurídica  de  la  Universidad  de  León  (año  2017,  núm.  4,  pp.  25-50).  Disponible  en: 
https://www.researchgate.net/publication/321949265_Regulacion_legal_de_la_robotica_y_la_inteligencia_art
ificial_retos_de_futuro_Legal_regulation_of_robotics_and_artificial_intelligence_future_challenges 
(consultado en junio de 2020). 
152
  “La  regulación  de  la  Inteligencia  Artificial”  por  Alejandro  Morales  Cáceres  en  Agnito.  Publicado  el  12  de 
octubre  de  2017.  Disponible  en:  ​http://agnitio.pe/articulo/la-regulacion-de-la-inteligencia-artificial/ 
(consultado en junio de 2020). 
153
El documento puede consultarse en 
https://helena.anmat.gob.ar/uploads/pdfs/dc_11889_30715802321_10909.pdf?rnd=75c864a1-1147-48af-90
9a-594c2d4c58e3​ (consultado en junio de 2020). 
154
  “Fleni  utiliza  el primer software de Inteligencia Artificial aprobado por ANMAT” por FLENI. Publicado el 18 
de julio de 2019. Disponible en: 
https://www.fleni.org.ar/novedades/fleni-utiliza-el-primer-software-de-inteligencia-artificial-aprobado-por-a
nmat/​ (consultado en junio de 2020). 

 
46 
 
 
 
9.Principios éticos 
Desde  mediados  de  2018,  en  la  Comisión  Europea  existía  un  grupo  de  trabajo  sobre 
Inteligencia  Artificial  encargado  de  crear  una  guía  de  principios  éticos.  El  documento  final, 
155
presentado  en  abril  de  2019 ,  se  enumeran  cuatro  principios  éticos,  arraigados  en  los 
derechos  fundamentales,  que  deben  cumplirse  para  garantizar  que  los  sistemas  de  IA  se 
desarrollen, desplieguen y utilicen de manera fiable: 

1. Respeto de la autonomía humana. 


2. Prevención del daño. 
3. Equidad. 
4. Explicabilidad. 

Los  autores  del documento aseguran que “cabe la posibilidad de que surjan tensiones entre 


los  principios  anteriores,  y  no  existe  una  solución  establecida  para  resolverlas”.  Como 
ejemplo,  presentan  el conflicto que puede haber entre el principio de prevención del daño y 
el  de  autonomía  humana en el caso de implementación de sistemas de Inteligencia Artificial 
para  la  “‘actuación  policial  predictiva’,  que  puede  ayudar  a  reducir  la  delincuencia,  pero  de 
formas  que  incluyan  actividades  de  vigilancia  que  vulneren  la  libertad  y  la  privacidad 
individuales.  Además,  los  beneficios  globales  de  los  sistemas  de  IA  deberían  ser 
sustancialmente superiores a los riesgos individuales previsibles”. 
156
Por  su  parte,  los principios de la OCDE sobre Inteligencia Artificial , publicados en mayo de 
2019,  fueron  adoptados  por  los  países  miembros  de  la  OCDE  y  también  Argentina,  Brasil, 
Colombia  y  Costa  Rica.  La  OCDE  identifica  cinco  principios  complementarios  para  la 
administración responsable de la IA confiable:  

1. La  IA  debería  beneficiar  a  las  personas  y  al  planeta  al  impulsar  el  crecimiento 
inclusivo, el desarrollo sostenible y el bienestar. 
2. Los  sistemas  de  IA  deben  diseñarse  de  manera  que  respeten  la  ley,  los  derechos 
humanos,  los  valores  democráticos  y  la  diversidad,  e  implementen  salvaguardas 
apropiadas -por ejemplo, permitiendo la intervención humana donde sea necesario-, 
para garantizar una sociedad justa y equitativa.  
3. Debe  haber  una  divulgación  transparente  y  responsable  en  torno  a  los  sistemas  de 
IA para garantizar que las personas entiendan sus resultados y puedan desafiarlos. 
4. Los  sistemas  de  IA  deben  funcionar  de  manera  robusta  y  segura  a  lo  largo  de  sus 
ciclos  de  vida  y  los  riesgos  potenciales  deben  evaluarse  y  gestionarse 
continuamente. 

155
  “Ethics  guidelines  for  trustworthy  AI”  en  su  versión  en  español,  pp.  14-16.  Disponible  en: 
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai  (consultado  en  julio  de 
2020). 
156
“OECD Principles on Artificial Intelligence” publicado en mayo de 2019. Disponible en: 
https://epic.org/algorithmic-transparency/OECD-AI-Principles-flyer.pdf​ (consultado en junio de 2020). 

 
47 
 
 
 
5. Las  organizaciones  y  las  personas  que  desarrollan,  implementan  y  operan  sistemas 
de  IA  deben  ser  responsables  de  su  correcto  funcionamiento  de  acuerdo  con  los 
principios anteriores. 

En  marzo  de  2019,  el  Banco  Interamericano  de  Desarrollo  publicó  un  documento  titulado 
157
“La  gestión  ética  de  los  datos” ,  en  el  que  ofrece  marcos  de  referencia  sobre  la  gestión 
158
ética  de  datos -teniendo en cuenta la importancia de la protección de los datos - y sobre la 
importancia  del  consentimiento,  además  de  un  compendio  de mejores prácticas y una guía 
para una gestión responsable de datos por parte del sector público. 

En  los  últimos  años,  además,  distintos  países  del  mundo  desarrollado  han  diseñado 
directrices  sobre  la  gestión ética de los datos. En este tipo de documentos marco se definen 
algunos  aspectos cruciales a tener en cuenta con respecto a la utilización de datos por parte 
de  las  instituciones  públicas,  aunque  sus  contenidos  suelen  ser  generales  sin  demasiada 
información concreta sobre cómo llevar a cabo su implementación. 
159
En  Nueva  Zelanda,  por  ejemplo,  se  creó  el  Data  Futures  Partnership ,  un  grupo 
independiente  designado  y  financiado  por  el  gobierno,  que  en  2017  publicó  una  guía  para 
160
que las organizaciones desarrollen licencias sociales para el uso de datos . 
161
Por  su  parte,  el  gobierno  británico publicó el “Data Ethics Framework”  del Department for 
Digital,  Culture,  Media & Sport, a través del que intenta establecer un marco ético pero en el 

157
  Banco  Interamericano  de  Desarrollo  (BID).  “La  gestión  ética  de los datos. Por qué importa y cómo hacer 
un  uso  justo  de  los  datos  en  un  mundo  digital”,  por  César  Buenadicha,  Gemma  Galdon  Clavell,  María  Paz 
Hermosilla,  Daniel  Loewe,  y  Cristina  Pombo.  Publicado  en  marzo  de  2019.  Disponible  en: 
https://publications.iadb.org/es/la-gestion-etica-de-los-datos​ (consultado en mayo de 2020). 
158
  Es  por  esto  que  la  Red  Iberoamericana  de  Protección  de  Datos  publicó  en  junio  de  2019 los “Principios 
rectores  de  la  Protección  de  Datos  Personales  en  los  Proyectos  de  Inteligencia  Artificial”,  que  son:  1) 
Legitimación;  2)  Licitud;  3)  Lealtad;  4)  Transparencia;  5)  Finalidad;  6)  Proporcionalidad;  7)  Calidad;  8) 
Responsabilidad;  9)  Seguridad;  y  10)  Confidencialidad.  “Orientaciones  específicas  para  el  cumplimiento  de 
los  Principios  y  Derechos  que  rigen  la  Protección  de  los  Datos  Personales  en  los  Proyectos  de Inteligencia 
Artificial” por la Red Iberoamericana de Protección de Datos. Publicado en junio de 2019. Disponible en:  
https://www.argentina.gob.ar/sites/default/files/orientaciones_especificas_de_proteccion_de_datos_en_intel
igencia_artificial.pdf​ (consultado en junio de 2020). 
159
  “Data  Futures  Partnership  in  New  Zealand  issues  guidelines  for  organisations  to  develop  social  license 
for data use” por Priyankar Bhunia para OpenGov Asia. Publicado el 27 de octubre de 2017. Disponible en: 
https://www.opengovasia.com/data-futures-partnership-in-new-zealand-issues-guidelines-for-organisations
-to-develop-social-license-for-data-use/  (consultado  en  junio  de  2020).  Su  sitio  web  es 
https://www.trusteddata.co.nz/  
160
  “A  Path  to  Social  Licence.  Guidelines  for  Trusted  Data  Use”  por  Data  Futures  Partnership.  Publicado  en 
agosto de 2017. Disponible en: 
https://static1.squarespace.com/static/58e9b10f9de4bb8d1fb5ebbc/t/598d014fdb29d6ff0d50c317/150241
3147674/A-Path-to-Social-Licence-Guidelines-for-Trusted-Data-Use-August-2017.pdf  (consultado  en  junio 
de 2020). 
161
La guía está disponible en: 
https://www.gov.uk/government/publications/data-ethics-framework/data-ethics-framework  (consultado 
en junio de 2020). 

 
48 
 
 
 
que  incluye  referencias  a  otros  códigos  y  a  la  legislación  pertinente.  Los  siete  principios  de 
esta guía, son: 

1. Tener en claro cuál es la necesidad del usuario y el bien público. 


2. Conocer la legislación y los códigos de prácticas pertinentes. 
3. Utilizar datos que sean proporcionales a las necesidades del usuario. 
4. Comprender las limitaciones de los datos. 
5. Asegurar prácticas sólidas y trabajar dentro del conjunto de habilidades. 
6. Hacer un trabajo transparente y ser responsable. 
7. Incrustar datos de manera responsable. 

En  Argentina,  durante  2019  se  llevaron  a  cabo  tres  encuentros  para  debatir  e  intercambiar 
162
miradas  sobre  cómo  debería  ser  el  “Plan  Nacional  de  Inteligencia  Artificial” ,  a  los  que  se 
invitó  a  participar  al  sector  público,  privado,  académico,  la  comunidad  técnica  y  las 
organizaciones  de  la  sociedad  civil.  En  diciembre  de  2019  se  publicó  el  resultado  de  esos 
encuentros  en  un  documento  que  incluye  un  apartado  sobre  la  "Ética  y  Regulación"  en  el 
que  se  expresa  que,  al  analizar  las  cuestiones  éticas  en  relación  al  desarrollo  de  la  IA  hay 
dos enfoques que deben tenerse en cuenta: 

1. La  ética  de  los  sistemas:  ​que  está íntimamente relacionada con la forma en que se 


desarrollan  los  algoritmos,  la  lógica  detrás  de  los mismos, los datos que se utilizan y 
en los cuales se basará el proceso de aprendizaje de las máquinas. 

2. Las  cuestiones  éticas  que  rodean  a  la  IA:  ​se  refieren  al  impacto  sobre  el  factor 
humano  como  consecuencias  del  uso  e  implementación  de  sistemas basados en IA. 
En  este  sentido,  es  fundamental  la  definición  de  un  esquema  de  gestión  de  riesgos 
que  tenga  en  cuenta  cuestiones  de  seguridad,  protección,  transparencia  y 
responsabilidad. 

Algunas  otras  organizaciones  que  también  han  publicado  sus propios documentos sobre la 


163
importancia  de  la  ética  en  el  desarrollo  de  la  inteligencia  artificial,  son:  la  IEEE ,  que  tiene 
como  principios  generales  la  integración  de  los  derechos  humanos  en  los  avances 
tecnológicos  y  la  priorización  del  beneficio  máximo  para  la  humanidad  y  el  ámbito natural; 
la  AI  Now  publicó  una  guía  para  el  uso  de  algoritmos  por  parte  de  las  administraciones 
164
públicas,  en  el  que  se  incluye  el  uso  de  estas  tecnologías  en  el  ámbito  de  la  salud ;  la 
165
Partnership  on  AI  -un grupo conformado por multinacionales entre las que se encuentran 
166
Google,  Apple  y  Amazon-;  y  algunas  universidades,  como  la  Universidad  Johns  Hopkins   y 

162
  El  documento  se  publicó  en  diciembre  de  2019,  pero  actualmente  no  se  encuentra  disponible  en  los 
sitios oficiales del Gobierno Nacional. 
163
“Ethically Aligned Design” (2016). Disponible en: 
https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead1e.pdf​? 
(consultado en junio de 2020). 
164
  “Algorithmic  Accountability  Policy  Toolkit”  por  AI  Now.  Publicado  en  octubre  de  2018.  Disponible  en: 
https://ainowinstitute.org/aap-toolkit.pdf​ (consultado en junio de 2020). 
165
Partnership on AI: ​https://www.partnershiponai.org/  
166
Ethictoolkit.ai.: ​http://ethicstoolkit.ai/  

 
49 
 
 
 
la  Universidad  de  Chicago,  que  desarrolló  una  herramienta  de  código  abierto  para  auditar 
167
algoritmos y detectar discriminación y sesgos . 
168 169
En  el  sector  privado,  Google   y  Microsoft   cuentan  con  códigos  éticos,  mientras  que 
Facebook  tiene  un  equipo  dedicado  a  la  ética  de  la  inteligencia  artificial,  pero  no  existe 
información sobre sus integrantes, principios o resultados. 

El  23  de  octubre  de  2018,  diversas  personas  y  organizaciones,  agrupadas  bajo  el  nombre 
170
The  Public Voice, publicaron unas Directrices Universales para la Inteligencia Artificial , que 
se  propone  maximizar  los  beneficios  de  la  IA,  minimizar  el  riesgo  y  garantizar la protección 
de  los  derechos  humanos.  Allí  se  enumeran  una  serie  derechos,  obligaciones  y 
prohibiciones  que,  según  afirman,  “deben  incorporarse a las normas éticas, adoptarse en la 
legislación  nacional  y  los  acuerdos  internacionales,  e  incorporarse  al  diseño  de  los 
sistemas”.  Además,  establecen  que  “la  responsabilidad  principal  de  los  sistemas de IA debe 
residir  en  aquellas  instituciones  que  financian,  desarrollan  e  implementan  estos  sistemas”. 
La guía está compuesta por doce puntos: 

1. Derecho a la transparencia. 
2. Derecho a la determinación humana. 
3. Obligación de identificación. 
4. Obligación de imparcialidad. 
5. Obligación de evaluación y rendición de cuentas. 
6. Obligaciones de exactitud, confiabilidad y validez. 
7. Obligación de calidad de los datos. 
8. Obligación de seguridad pública. 
9. Obligación de Ciberseguridad. 
10. Prohibición de perfiles secretos. 
11. Prohibición de puntuación unitaria. 
12. Obligación de terminación. 

La  lista  de  documentos  sobre  los  principios  éticos  que  deben  respetarse  para  el desarrollo 
de  tecnologías  de  Inteligencia  Artificial  y  de  la  gestión  de  datos  es  extensa  y  no  es  la 
intención  de  este  trabajo  mencionar  a  cada  uno  de  ellos.  Sin  embargo,  resulta  menester 
reflexionar  sobre  su  efectividad, teniendo en cuenta la cantidad y diversidad de los mismos. 
En  este  sentido,  resulta  imprescindible  reforzar  la  necesidad  de  que  todo  desarrollo  e 
implementación  de  tecnologías,  en  general,  y  de Inteligencia Artificial, en particular, respete 
estándares  internacionales  de  derechos  humanos,  así  como  derechos  civiles,  políticos, 
económicos,  sociales  y  culturales.  Son  estos, precisamente, los que han surgido del enorme 
consenso  internacional  entre  los  Estados  que  son  los  representantes  de  la  ciudadanía  en 
todo país democrático. 

167
Ver “Aequitas”: ​https://dsapp.uchicago.edu/aequitas/  
168
Google: h​ ttps://www.blog.google/technology/ai/ai-principles/ 
169
Microsoft: h​ ttps://www.microsoft.com/en-us/ai/our-approach-to-ai  
170
  “Universal  Guide  for  Artificial  Intelligence”  por  The  Public  Voice.  Publicado  el  23  de  octubre  de  2018. 
Disponible en: h ​ ttps://thepublicvoice.org/ai-universal-guidelines/​ (consultado en junio de 2020). 

 
50 
 
 
 
Además  de  esta  serie  de  principios  éticos  propuestos  por  diversos  actores  internacionales, 
es  necesario  tener  en  cuenta  la  particularidad  que  tiene  la  gestión  ética  de  los  datos  de 
salud,  considerando  que  son  datos  sensibles  y  que  el  sector  de  la  salud  es  altamente 
tecnologizado.  En  este  sentido,  debe  tenerse  en  cuenta  el  trabajo  publicado  en 2017 por la 
Organización  Panamericana  de  la  Salud  y la Organización Mundial de la Salud, “Pautas de la 
171
OMS  sobre  la  ética en la vigilancia de la salud pública” , en la que se incluyen 17 directrices 
que  cubren  temas  de  transparencia,  fines  legítimos  y  definidos  para  la  obtención  de  datos 
en  el  ámbito  de  la  salud  pública,  su  pertinencia,  actualidad  y  adecuación,  así  como  su 
protección  segura.  Asimismo,  se  señala  la  necesidad  de  velar  por  la  seguridad  de  las 
personas  afectadas  en  relación  con  la  protección  del  uso  de  sus  datos  por  fuera  de  los 
sistemas de salud pública. 

Finalmente,  para  una  gestión  ética  de  datos  en  el  sector  público,  el  BID  propone  una  serie 
de  criterios  y  de  preguntas  que  deben  formularse  para  asegurar  la  correcta 
conceptualización e implementación de políticas de datos en el sector social:  

1) Creación  del  valor  público:  ​Que  los  beneficios  superen  los  costos.  Para  eso,  se 
debe:  a)  Establecer  la  línea  de  referencia  de  desempeño  del  proceso;  b)  Identificar 
los  objetivos  del  proyecto,  las  acciones  a  realizar  y  el  beneficio  público  que  se 
generará; c) Diseñar indicadores de desempeño. 
2) Identificación  de  las  personas  beneficiadas  o  afectadas  y  valoración  del 
impacto:  Debe  evaluar  cuáles son las inequidades que se pueden producir y prestar 
172
especial atención a los grupos minoritarios o vulnerables.  
3) Diagnóstico  de  datos:  a)  Se  debe  mapear  los  datos  disponibles  y  los  deseables;  b) 
Identificar  los  sesgos  posibles.  Así  se  obtendrá  idealmente  el  conjunto  de  datos 
necesarios. 
4) Privacidad  por  defecto  o  diseño:  ​La  privacidad  debe  incorporarse  a  lo  largo  de 
todo  el  ciclo  de  vida  de  los  datos  y  es  en  la  etapa  de  planificación  cuando  deben 
diseñarse  las  acciones  relevantes  para  lograrlo,  que  son  las  siguientes:  a) 
Consentimiento;  b)  Anonimización/seudonimización;  c)  Seguridad de la información; 
d) Estándares por defecto; e) Datos abiertos. 
5) Transparencia  y  rendición  de  cuentas:  Algunas  medidas  para  combatir  la 
opacidad  a  la  hora  de  utilizar  los  datos:  a)  Delimitar el papel de los datos en la toma 
de  decisiones;  b)  Diseñar  estrategias  de  comunicación  y  participación  de  la 
ciudadanía y los grupos de interés. 
 

171
Disponible en: 
https://iris.paho.org/bitstream/handle/10665.2/34499/9789275319840-spa.pdf?sequence=6  (consultado  en 
julio de 2020). 
172
  En  este  caso,  un  ejemplo  puede  ser  el  nombrado  anteriormente  sobre  el  desarrollo  del  modelo 
predictivo  de  embarazo  adolescente  de  la  provincia  de  Salta,  Argentina,  en  el  que  no se había evaluado el 
riesgo de estigmatización o afectación de la privacidad de las jóvenes. 

 
51 
 
 
 
10. Buenas  prácticas  y  requisitos  para 
una IA fiable 
En  el  marco  de  las  “Directrices  éticas  para  una  IA  fiable”  del  Grupo  Independiente  de 
Expertos  de  Alto  Nivel  sobre  Inteligencia  Artificial  -creado  por la Comisión Europea en junio 
de  2018-  se  ofrece  una  lista  no  exhaustiva  de  requisitos  para  materializar  y  lograr  una  IA 
fiable,  en  la  que  “se  incluyen  métodos  técnicos  y  no  técnicos  actualmente  disponibles  para 
garantizar  el  cumplimiento  de  dichos  requisitos  a  lo  largo  de  todo  el  ciclo  de  vida  de  los 
173
sistemas de IA”. La lista incluye aspectos sistémicos, individuales y sociales: 

1. Acción  y  supervisión  humanas.  ​Incluidos  los  derechos  fundamentales,  la  acción 


humana y la supervisión humana. 
2. Solidez  técnica  y  seguridad.  ​Incluida  la  capacidad  de  resistencia  a  los  ataques  y  la 
seguridad,  un  plan  de  repliegue  y  la  seguridad  general,  precisión,  fiabilidad  y 
reproducibilidad.  Las  mejoras  en  la  seguridad  de  la  información  y  de  los  sistemas 
que  almacenan  los  datos  incluyen  los  firewalls,  el  uso  de  cifrado,  técnicas  de 
anonimización  y  la  codificación.  Por  otro  lado,  deben  definirse  protocolos  de 
seguridad  de  la  información  para  disminuir  la  posibilidad  de  que  haya  “error 
humano”. 
3. Gestión  de  la  privacidad  y  de  los  datos.  ​Incluido  el  respeto  de  la  privacidad,  la 
calidad y la integridad de los datos, así como el acceso a estos. 
4. Transparencia. ​Incluidas la trazabilidad, la explicabilidad y la comunicación. 
5. Diversidad,  no  discriminación  y  equidad.  ​Incluida  la  ausencia  de  sesgos  injustos, 
la  accesibilidad  y  el  diseño  universal,  así  como  la  participación  de  las  partes 
interesadas. 
6. Bienestar  social  y  ambiental.  ​Incluida  la  sostenibilidad  y  el  respeto  del  medio 
ambiente, el impacto social, la sociedad y la democracia. 
7. Rendición  de  cuentas.  ​Incluidas  la  auditabilidad,  la  minimización  de  efectos 
negativos  y  la  notificación  de  estos,  la  búsqueda  de  equilibrios  y  las 
compensaciones. 

  La  lista  puede  consultarse  en  el  documento  “Ethics  guidelines  for  trustworthy  AI”  en  su  versión  en 
173

español, pp. 18-25. Disponible en: 


https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai  (consultado  en  julio  de 
2020). 

 
52 
 
 
 
 

Por  su  parte,  la  Red  Iberoamericana  de  Protección  de  Datos (RIPD) recomienda lo siguiente 
respecto  de  los  proyectos  o  desarrollos  de  IA  que  involucren  el  tratamiento  de  datos 
174
personales : 

1. Cumplir las normas locales sobre el Tratamiento de Datos Personales (TDP). 


2. Efectuar estudios de impacto de privacidad. 
3. Incorporar la privacidad, la ética y la seguridad desde el diseño y por defecto. 
4. Materializar el principio de responsabilidad demostrada. 
5. Diseñar  esquemas  apropiados  de  gobernanza  sobre  TDP  en  las  organizaciones  que 
desarrollan productos de IA. 
6. Adoptar medidas para garantizar los principios sobre TDP en los proyectos de IA. 
7. Respetar  los  derechos  de  los  titulares  de  los  datos  e  implementar  mecanismos 
efectivos para el ejercicio de los mismos. 
8. Asegurar la calidad de los datos. 
9. Incrementar confianza y la transparencia con los titulares de los datos personales. 

  “Recomendaciones  generales  para  el  tratamiento  de  datos  en  inteligencia  artificial”  por  Red 
174

Iberoamericana de Protección de Datos. Publicado en junio de 2019. Disponible en: 


https://www.argentina.gob.ar/sites/default/files/recomendaciones-generales-para-el-tratamiento-de-datos-
en-la-ia.pdf​ (consultado en junio de 2020). 

 
53 
 
 
 
11. Tecnologías  para  la  salud  que 
protegen la privacidad 
Como  se  vio  en  el  presente  trabajo,  el  despliegue  de  desarrollos  basados  en  Inteligencia 
Artificial  con  aplicación  en  salud  es  extenso  y  algunas  de  las  preocupaciones centrales son, 
por  un  lado,  promover  sistemas  que  tengan  la menor cantidad de ​bias ​posibles, a través de 
garantizar  la  equidad  algorítmica  (o  ​fairness​),  y,  por  otro  lado,  que protejan la privacidad de 
las  personas  y  los  datos  personales  y  sensibles  con  los  que  se trabaje, tanto para entrenar, 
validar  y  probar  a  los  modelos  como  aquellos  que  se  utilicen  en  cada caso nuevo en el que 
se aplique el modelo entrenado. 
175
En  este  sentido,  la  Fundación  Sadosky   publicó  un  artículo  institucional  el  30  de marzo en 
el  que  pidieron  ser  cautos  en  el  uso  de  tecnologías  de  Inteligencia  Artificial  -y,  en  un 
mensaje  que  dirigen  a  los  medios  de  comunicación,  también  piden  ser  cautos  con  la 
difusión  de  estas  aplicaciones-  y  advierten  sobre  los  riesgos  de  aplicar  este  tipo  de 
tecnología  cuando  no  se  realiza  con  responsabilidad.  Por  ejemplo, algunas de las fallas que 
encontraron  en  algunos  desarrollos  que  se  presentaron  de  manera  urgente  ante el avance 
de la pandemia por COVID-19, son:  

1)  Falta  de  acceso  a  datos  de  calidad  y  en  la  cantidad  que  los  algoritmos  de  IA 
requieren para brindar resultados confiables;  
2)  No  poseen  una  homologación  por  parte  de  los  organismos de control, lo que 
requiere  tiempo  para que sean validadas por profesionales expertos y testeadas 
en el ámbito clínico; 
3)  Se  utilizan  heurísticas  o  recetas  oscuras  para  procesar  y  comparar  los  datos, 
que son de escaso o nulo rigor matemático y metodológico; 
4)  Se comparan curvas y se hacen extrapolaciones de otros casos y países, en las 
que  los  resultados  son  extremadamente  sensibles  a  pequeños  errores  en  la 
recolección  de  datos  y  en  los  protocolos  de  reporte,  lo  cual  arroja  conclusiones 
carentes de validez; 
5)  Requieren  que  el  usuario  ceda  información  personal  sensible,  como  puede 
ser  su  historial  de  geolocalización,  su  estado de salud o incluso sus radiografías, 
sin una política clara de privacidad, ni de protección de datos. 

Desde  Fundación  Sadosky  sostienen  que  “la  inteligencia  artificial  es  una  herramienta  con 
mucho  potencial  y  aplicable  a  las  más  diversas  áreas,  pero  requiere  acceso  a  datos 

  La  Fundación  Dr.  Manuel  Sadosky  es  una  institución  público  privada  cuyo  objetivo  es  favorecer  la 
175

articulación  entre  el  sistema  científico-tecnológico  y  la  estructura  productiva  en  todo  lo  referido  a  la 
temática  de  las  Tecnologías  de  la  Información  y  la  Comunicación  (TIC).  La  Fundación Sadosky fue creada a 
través  del  Decreto  N°  678/09  del  Poder  Ejecutivo  Nacional,  y  es  presidida  por  el  Secretario  de  Ciencia, 
Tecnología  e  Innovación  Productiva.  Sus  vicepresidentes  son  los  presidentes  de  las  cámaras  más 
importantes  del  sector  TIC:  CESSI  (Cámara  de  Empresas  de  Software  y  Servicios  Informáticos)  y  CICOMRA 
(Cámara de Informática y Comunicaciones de la República Argentina). 

 
54 
 
 
 
confiables,  revisiones  y  pruebas  para  evitar  sesgos,  y  más  aún,  como  cualquier  dispositivo 
aplicado  a  la  salud,  requiere  de  homologaciones  y  aprobación  por  los  organismos  de 
control  que  aseguren  su  idoneidad  y  fiabilidad”.  Además,  consideran que, si no se utiliza de 
manera  crítica,  “podría  incurrirse  en  conclusiones  falaces,  toma  de  decisiones  erróneas, 
crear angustia y preocupaciones innecesarias”. 

Luego  de  hacer  el  repaso  sobre  las  tecnologías  implementadas,  resultaría  fácil  llegar  a  la 
conclusión  de  que  es  imposible  implementar  tecnologías  de  Inteligencia  Artificial  que  se 
alimenten  de  enormes  volúmenes  de  datos  y  que,  a su vez, permitan garantizar privacidad. 
Sin  embargo,  especialistas  en  tecnología  y  protección  de  datos  aseguran  que  esta  es  una 
falsa dicotomía y que puede protegerse el estado de derecho y la salud pública. 

¿Qué  se  puede  hacer?  Una  posible  opción  es  la  llamada  privacidad  diferencial  que  protege 
individuos  introduciendo  aleatoriedad  matemática,  también  llamado  ruido  -algo  que  existe 
naturalmente  en  el  muestreo  estadístico-.  La  cantidad  de  ruido  agregado  puede  ser 
compartido  de  forma  pública  para  calcular  una  tasa  de  error  y  así  se  pueden  compartir 
bases  de  datos  y  proteger  la  privacidad  de  los  individuos,  ya  que  nadie  puede  saber  qué 
176
datos  son  para  generar  ruido  y  cuales  son  personas  reales .  Otro  ejemplo  de  intento  de 
protección  de  la  privacidad  podría  ser  el  desarrollado  por  Google  y Apple mencionado más 
arriba,  que  analiza la Electronic Frontier Foundation a partir de la que explican las distancias 
177
posibles técnicas de ​contact tracing u ​ tilizando Bluetooth.  

Con  respecto a las posibilidades técnicas de utilizar herramientas tecnológicas para afrontar 
y  contrarrestar  la  crisis  sanitaria  de  la  pandemia  que  cumplan  protocolos  que  respeten  la 
privacidad,  algunos  sectores  aseguran  que  es  posible:  “Desde  el  ​Chaos  Computer  Club 
178
compartieron  un  decálogo  para  evaluar  las  aplicaciones  de  seguimiento   basado  en  la 
voluntariedad  en  la  entrega  de  datos,  anonimato  de  los  mismos,  transparencia, 
descentralización,  economía  de  datos  [extraer  solo  los  necesarios].  Mientras  tanto,  Xnet 
179
compartió  un  artículo   en  el  que,  además  de  hacer  hincapié  en  la  apertura del código y la 
transparencia  enfoca  en  la  posibilidad  no  explorada  por  gobiernos  de  la  cooperación 

176
  “Balancing  Privacy  and  Accuracy:  New  Opportunity  for  Disclosure  Avoidance  Analysis”  por  Abowd,  J. M.; 
Velkoff, V. A. en United States Census Bureau. Publicado el 29 de octubre de 2019. Disponible en: 
https://www.census.gov/newsroom/blogs/research-matters/2019/10/balancing_privacyan.html  (consultado 
en abril de 2020). 
177
  “La  API  de  notificación  de  exposición  de  COVID-19  de  Apple  y  Google:  Preguntas  y  respuestas”,  por 
Bennett  Cyphers  y  Gennie  Gebhart  para  Electronic  Frontier  Foundation.  Publicado  el  28  de  abril  de  2020. 
Disponible en: 
https://www.eff.org/es/deeplinks/2020/04/apple-and-googles-covid-19-exposure-notification-api-questions-
and-answers​ (consultado en mayo de 2020). 
178
  “10  requirements  for  the  evaluation  of  'Contact  Tracing'  apps” por Chaos Computer Club. Publicado el 6 
de  abril  de  2020.  Disponible  en:  ​https://www.ccc.de/en/updates/2020/contact-tracing-requirements 
(consultado en abril de 2020). 
179
  “Datos,  ciudadanía  e  instituciones:  un  círculo  virtuoso  para  atacar  al  Covid-19”  por  Xnet  para  InfoLibre. 
Publicado el 6 de abril de 2020. Disponible en: 
https://www.infolibre.es/noticias/opinion/plaza_publica/2020/04/06/datos_ciudadania_instituciones_circulo
_virtuoso_para_atacar_covid_19_105660_2003.html​ (consultado en abril de 2020). 

 
55 
 
 
 
180
ciudadana  y  el  big  data  para  el  bien  común” .  A  este  conjunto  de  medidas y decisiones se 
las  suele  englobar  bajo  el  concepto  de  “privacidad  por  diseño”  (​privacy  by  design​)  y  es 
probable  que,  en  este caso, quienes promuevan la privacidad por diseño en las aplicaciones 
desarrolladas  para  combatir  el  avance del COVID-19 se estén basando en el protocolo DP3T 
(​Decentralized  Privacy-Preserving  Proximity  Tracing​).  Este  “rastreo  de  proximidad 
descentralizado  para  preservar  la  privacidad”  es  un  protocolo  de  código  abierto 
desarrollado  en  respuesta  a  la  pandemia  de  COVID-19  para  facilitar  el rastreo de contactos 
181
digitales  de  participantes  infectados.   Esto  mismo  podría  aplicarse  para  cualquier 
aplicación o sistema de IA que se utilice para el ámbito de la salud. 

Cuando  se  habla  de  las  diversas  medidas  técnicas  que  pueden  tomarse  para  proteger  los 
datos  y,  entonces,  la  privacidad  de  las  personas,  se  menciona  con  frecuencia  la 
anonimización  de los mismos. Sin embargo, por otro lado, ha sido demostrado también que 
aunque  la  base  de  datos  haya  sido  anonimizada,  su  cruce  con  otras  puede  derivar  en  la 
182
reidentificación  de  algunos  individuos .  Sobre  esto,  Laura  Alonso  Alemany,  docente  e 
investigadora  del  Grupo  de  Procesamiento  de  Lenguaje  Natural  del  Departamento  de 
183
Informática  de  FaMAF ,  explica:  “Una  de  las  razones  por  las  que  no  se  publican  muchos 
datos  de  salud  es  porque  sí  hay  problemas  de  anonimización  y  otra  es  porque  hay  mucho 
dinero  involucrado.  Por  ejemplo,  las  prepagas  adecuan  el  valor  de  sus  cuotas  al  estado  de 
184
salud del paciente, entonces deben tomarse recaudos para que no haya abusos” ​. 

Para  anonimizar,  explica,  “el  punto  en  que  se  debe  cortar  la información es en el momento 
en  que  sirve  para  identificar  a  alguien con ‘certeza absoluta’ o para identificarlo con ‘certeza 
suficiente’.  Por  ejemplo,  si  hay  diez  personas  de  un  pueblo  a  las  que  se  puede  estar 
refiriendo,  quizás  diez  ya  es  suficiente.  Ahí  hay  que  tener  en  cuenta,  no  solamente  la 
información  que  te  proveen  los  datos  que  se  publican  en  ese  ​dataset​,  sino  qué  otros datos 
públicos  hay  con  los  que  se  podrían cruzar estos. Eso es lo más difícil de todo, darse cuenta 
de  qué  otros  datos  públicos  hay,  que  si  pudieran  ser  cruzados  con  los  datos  que  vos  estás 
publicando podrían identificar unívocamente o de forma muy cercana a una persona”. 

180
  “Crisis  sanitaria:  es  tecnológicamente  posible  desarrollar  protocolos  que  respeten  la  privacidad”,  por 
Sursiendo. Publicado el 13 de abril de 2020. Disponible en: 
https://sursiendo.org/blog/2020/04/crisis-sanitaria-es-tecnologicamente-posible-desarrollar-protocolos-que
-respeten-la-privacidad/​ (consultado en abril de 2020). 
181
  Para  más  información  técnica  y  documentación,  ver:  ​https://github.com/DP-3T  (consultado  en  mayo de 
2020). 
182
  Kupersmith,  J.  [2013].  “The  Privacy  Conundrum  and  Cenomic  Research:  Re-identification  and  Other 
Concerns” en Health Affairs Blog. Disponible en: 
https://www.healthaffairs.org/do/10.1377/hblog20130911.034137/full/​ (consultado en junio de 2020). 
183
  Licenciada  y  Doctora en Lingüística General por la Universitat de Barcelona, Doctorado Interuniversitario 
en  Ciencia  Cognitiva  y  Lenguaje. Desde 2005 Profesora de la Licenciatura en Ciencias de la Computación en 
la  Facultad  de  Matemática,  Astronomía  y  Física  (FAMAF)  de  la  Universidad  Nacional  de  Córdoba  (UNC). 
Coordinadora  de  la  Diplomatura  en  Ciencia  de  Datos  de  la  FAMAF-UNC.  Trabaja  en  Procesamiento  del 
Lenguaje  Natural,  en  el  uso  de  métodos  empíricos  para  la  creación  y  enriquecimiento  de  recursos  y 
herramientas  para  el  tratamiento  automático  del  lenguaje  humano. Le interesa la enseñanza y divulgación 
de  la  Inteligencia Artificial y el aprendizaje automático en particular, especialmente desde un punto de vista 
crítico y de transferencia a los sectores sociales y productivos. 
184
Entrevista realizada para el presente trabajo el 3 de julio de 2020. 

 
56 
 
 
 
Además,  dentro  de  la  base  de  datos  creada  “hay  que  hacer  una  sanitización  de  ese  estilo”, 
dice  Alonso  Alemany.  “Que  no  haya  una  combinación  única  de  valores  que  te  permitan 
identificar  a  esa  persona  porque  es  única,  porque,  si  la  hay,  es  como  si pusieras el número 
de  DNI,  es  un  ​fingerprint  ​único.  Cuando  se  detecta  que  hay  información  que  está 
identificando  unívocamente  o  aproximadamente a una persona es muy difícil mantener esa 
185
información  y  que  no  pueda  ser  descubierto .  Se  debe  renunciar  a  parte  de  esa 
información”,  afirma.  Otra  forma  es  tener  los  datos  en  bases  separadas.  Por  ejemplo,  los 
datos  personales  en  un  lado  y  la  imagen,  los  diagnósticos  o  la  historia  clínica  en  otro; 
entonces,  eso  se  junta  con  llaves  y,  si  no  tenés  esas  llaves,  no  las  podés  juntar.  Un  desafío 
difícil  es  encontrar  las combinaciones de valores que se repiten menos de diez veces dentro 
de  la  base  de  datos,  porque  hay  que  buscar  entre  todas  las  combinaciones  de  valores.  La 
investigadora  explica:  “Para  detectarlas  podés  aplicar  aprendizaje  automático,  hacerle 
ingeniería  inversa,  que es como tratar de ​hackearlo​. Podés hacer un aprendedor automático 
que  vos  puedas interpretar, con un algoritmo de árbol de decisión, que trate de identificar a 
la  persona  a  través  de  los  datos.  Si  puede,  lo  va  a  hacer.  Y  ahí  vos  identificás  esas 
combinaciones  únicas”.  “La  decisión  de  cómo  hacerlo  tiene  que  estar  a cargo de la persona 
que  está  curando  esa  base  de  datos  porque  debe  tener  conocimiento  del  dominio  para 
saber qué información generalizar”, concluye. 

Luego  de  evaluada  las  implicancias  de  adecuación  de  la  tecnología,  cabe la ponderación de 
la  proporcionalidad  de  su  uso  atendiendo  la  afectación  de distintos derechos. Esto significa 
considerar  las  regulaciones  que  acoten  los  plazos  de  las facultades extraordinarias y que lo 
sujeten a las condiciones específicas de la emergencia. 

12. Reflexiones y preguntas 


El  desarrollo  de  sistemas  de  Machine  Learning  y  Deep  Learning,  aplicados  a  diversas 
disciplinas  de  la  salud,  podría  ser  útil  y  fundamental  para  mejorar  la  calidad  de  vida  de  las 
personas  a  través  de la detección temprana de patologías o de indicar los tratamientos más 
adecuados  para  cada  paciente,  entre  otros  aspectos  positivos.  En  el  presente,  grupos  de 
investigadores  de  la  academia,  los  Estados y las empresas se están dedicando a mejorar las 
técnicas para obtener mejores resultados. 

Sin  embargo, los desafíos son abundantes y diversos. Por un lado, la necesidad de disminuir 
los  sesgos  (de  género,  de  etnia,  entre  otros)  para  que  la  implementación  de las técnicas de 
Inteligencia  Artificial  no  alimenten  a  las  desigualdades  y  a  la  discriminación  que  existen 
actualmente  en  las  sociedades.  Por otro lado, la necesidad de concientizar a los Estados, las 
empresas, los investigadores y los desarrolladores acerca del valor que tienen los datos y de 
la  importancia  social  que  tiene  protegerlos  para  disminuir  los  problemas  que  emergen 
como  resultado  de  la  pérdida  de  privacidad  de  las  personas  titulares  de  esos  datos,  como 
puede  ser,  por  ejemplo,  que  esas  personas  pierdan  sus  empleos  (o  no  consigan),  que esos 
datos  sean  utilizados  por  aseguradoras,  entidades  bancarias  o  prepagas  de  salud  para 
negar atención, servicios o para asignar los valores de las cuotas de forma discriminatoria. 

185
Se refiere a que es muy difícil que no pueda ser “desanonimizado”. 

 
57 
 
 
 
Una  de  las  principales  tensiones  que  se  hace  evidente es la de la disminución de los sesgos 
y  la  protección  de  la  privacidad,  ya  que  para  disminuir  sesgos  se  necesitan  más  datos 
demográficos,  como  explicó  Enzo  Ferrante  en  la  entrevista  que  dio  para  este documento, y 
a  medida  que  se  tienen  más  datos  -sobre  todo,  demográficos-  puede  ser  más  fácil 
identificar  a  una  persona  unívocamente  o  aproximadamente,  como  explicó  Laura  Alonso 
Alemany.  Esto  hace  más  que  necesario  que  las  medidas  técnicas  de  seguridad  que  se 
tomen,  tengan  entre  sus  prioridades  la  de  elaborar  un  proceso  de  anonimización  robusta, 
realizando  pruebas  e  intentos  de  ​hackeos  ​para  disminuir  al  máximo  la  posibilidad  de 
desanonimización de los datos utilizados. 

Otro  debate  global,  regional  y  local  es  el  de  cómo  regular.  Sin  embargo,  mientras  eso  se 
discute,  existe  actualmente  un marco regulatorio que permite abordar el contexto actual de 
desarrollo  e  implementación  de  las  tecnologías  de  inteligencia artificial y que, en Argentina, 
está,  a  su  vez,  enmarcado  en  los  tratados  internacionales  de  derechos  humanos.  Es 
necesario  destacar  que,  independientemente  de  si  se  redacta  o  no  una  normativa 
específica,  resulta  prioritario  hacer  cumplir  la  legislación  vigente  en  materia  de  protección 
de  datos  personales,  por  lo  que  el  trabajo  de  la  autoridad  de  aplicación  de  la  ley  de 
protección  de  datos  personales  es  central.  Una  reflexión  que  queda sobre esto sería la que 
se  plantea  Pablo  Palazzi,  abogado  especialista  en  protección  de  datos  personales:  “¿Cómo 
se  hace  para que el concepto de privacidad sea algo que valoremos todos desde el principio 
186
y no ya cuando hay un hecho consumado como que todos tienen nuestros datos?”.  

Algunas  preguntas  que  quedan  para  responderse,  son:  ¿Es  posible  disminuir  los sesgos sin 
tener  que  recolectar  cada  vez  más  datos? ¿Es factible, verdaderamente, una anonimización, 
seudonimización  o  disociación  de  datos  que  sea  irreversible?  ¿Cómo se gestionan los datos 
personales  y  sensibles  en  el  desarrollo  de  investigaciones  y  productos  que  se  utilizan  en la 
práctica médica? ¿Quiénes tienen acceso a las bases de datos? ¿Con qué fines? ¿Cómo usa el 
Estado  la  información  disponible  de  la  salud  de  los  ciudadanos?  ¿Cómo  la  usan  las 
empresas  de  seguros,  las  farmacéuticas,  las  instituciones  de  salud?  ¿Puede  llegar  a  manos 
de un futuro empleador? ¿Quién audita? Estas y otras preguntas son necesarias para pensar 
cómo debería implementarse este tipo de tecnología en un área sensible de la población. 

Ante  los  potenciales  (y  concretos)  riesgos  que  presenta  la  implementación  de  estas 
tecnologías  en  la  salud,  y  para  evitar  vulnerar  a  diversos  sectores  de  la  sociedad  con 
desarrollos  que  nacen  de  la  noche  a  la  mañana  sin  un  trabajo  profundo y responsable que 
tenga  en  cuenta  los  impactos  sociales,  se  presenta  la  necesidad  de  que  exista  un  debate 
público  sobre  cuáles  son  los  problemas  que  pueden  y merecen ser automatizables, sin que 
187
sus efectos sean más graves que los problemas que vienen a solucionar . 

186
  “Webinar  de  Inteligencia  Artificial  y  Derecho  - Pablo Palazzi y Micaela Mantegna” por el CETyS. Publicado 
el  2  de  junio  de 2020. Disponible en: ​https://www.youtube.com/watch?v=_ngnwJmtkdk  (consultado en julio 
de 2020). 
187
  “Sesgo  en  bucle:  alimentando  la  injusticia  algorítmica”  por  David  Casacuberta  para CCCBLAB. Publicado 
el 9 de mayo de 2018. Disponible en: 
http://lab.cccb.org/es/sesgo-en-bucle-alimentando-la-injusticia-algoritmica/​ (consultado en julio de 2020). 

 
58 
 
 
 

También podría gustarte