DOI: [Link]
02
NEURALINK: INMPLICACIONES ÉTICAS DE LAS TECNOLOGÍAS
BASADAS EN IN TERFACES CEREBRO-MÁQUINA
NEURALINK: ETHICAL IMPLICATIONS OF TECHNOLOGIES BASED
ON BRAIN-MACHINE INTERFACES
JONATHAN GONZÁLEZ SANTOS
Universidad Pablo de Olavide
jgonsan1@[Link]
RECIBIDO: 30/12/2021
ACEPTADO: 18/03/2022
Resumen: En los últimos años, Elon Musk se ha convertido en una referencia
internacional en el ámbito de la innovación. Entre sus últimas aportaciones se
encuentra Neuralink, una empresa neurotecnológica que muchos creen que
supondrá todo un hito en el sector. Sin embargo, las aplicaciones que plantea han
preocupado a académicos y expertos por el gran impacto que puede generar en la
sociedad. En este artículo se ha hecho una breve revisión del estado del arte de la
tecnología de interfaces cerebro-máquina, haciendo especial hincapié en las
implicaciones éticas asociadas, así como en las medidas que se están empezando
a tomar para el desarrollo y uso responsable de esta tecnología.
Palabras clave: Neuralink; Interfaz Cerebro-Máquina; Neurotecnología;
Neuroética; Bioética.
Abstract: In recent years, Elon Musk has become an international reference of the
innovation sector. Among his latest contributions we could find Neuralink, a
neurotechnology company that many believe will be a milestone in the sector.
However, the applications that it raises have worried academics and experts due to
the great impact it can generate on society. This article has made a brief review of
the state of the art of brain-machine interface technology, emphasizing the
associated ethical implications, as well as the measures that are beginning to be
taken for the development and responsible use of this technology.
Keywords: Neuralink; Brain-Machine Interface; Neurotechnology; Neuroethics;
Bioethics.
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
54 JONATHAN GONZÁLEZ SANTOS
Introducción
Mucho ha llovido desde que, en 1888, Santiago Ramón y Cajal fijase
el punto de mira de la investigación neurofisiológica en la neurona
como entidad fundamental para comprender el funcionamiento del
sistema nervioso, hito que hizo posible el desarrollo de la
neurociencia como un prometedor campo de estudio con muchas
incógnitas por resolver. Desde entonces, múltiples han sido los
hallazgos que se han producido en estecampo y, por ende, diversas
consecuencias se han derivado del mismo, siendo la neurotecnología
una de las más destacadas, la cual abordaremos en este artículo.
La neurotecnología se ha definido como el conjunto de métodos
e instrumentos que permiten una conexión directa de componentes
técnicos –como electrodos, computadoras o prótesis inteligentes–
con el sistema nervioso (Müller y Rotter, 2017). Esta ciencia,
clasificada por expertos como dentro del grupo de las tecnologías
disruptivas (López Baroni, 2019a), se ha disparado en popularidad
en la última década (Slutzky, 2019), siendo Neuralink
probablemente la empresa más mediática de este sector en la
actualidad. Co-fundada en 2016 por el billonario Elon Musk (CEO
de Tesla y SpaceX), esta start-up apareció en una publicación del
Wall Street Journal (Winkler, 2017), donde se explicaba que, según
palabras del magnate, su objetivo era el desarrollo de una tecnología
novedosa a la cual se refería como «neural lace», que consistía en el
implante de diminutos electrodos cerebrales que permitirían cargar y
descargar pensamientos en el futuro. No obstante, esta tecnología no
es completamente nueva, sino que se engloba dentro del marco de
las interfaces cerebro-máquina.
Los fundamentos teóricos de la interfaz cerebro-máquina (ICM)
–brain machine interface (BMI) en inglés– también conocida con
otros nombres como interfaz-cerebro-computadora (ICC) o interfaz
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 55
cerebro-ordenador (ICO) aparecieron por primera vez en la
literatura científica en la década de los años 60. Sin embargo, no
sería hasta finales de los 90 cuando los avances tecnológicos del
momento permitieron que la investigación en este campo despegase
(Lebedev y Nicolelis, 2017). Así pues, en cuanto a su diseño, las
BMI pueden variar en función de múltiples parámetros, aunque de
forma general suele estar constituido por tres componentes; un
módulo sensor, un módulo de procesamiento de la señal y un
módulo de aplicación (Minguez, 2010). Los sensores detectan
señales de la corteza cerebral, ya sea de forma invasiva o no
invasiva (vg. mediante electroencefalografía, EEG), las digitalizan
y envían al módulo de procesamiento, que extraen y clasifican
patrones o características de la señal y las traducen a comandos.
Estos comandos, que se corresponden con las intenciones de la
persona, son recogidos por el módulo de aplicación, el cual realiza
la función deseada y, por último, se evalúa la reacción del usuario,
cerrando así el ciclo de retroalimentación, y permitiendo ajustar
correctamente la acción ejecutada (Kawala-Sterniuk et al., 2021;
Lebedev y Nicolelis, 2017; Rashid et. al, 2020; Zhang et. al, 2020).
Con respecto a los objetivos de las BMI, si bien inicialmente
eran, por una parte, desvelar y utilizar los principios de
funcionamiento y propiedades de los circuitos cerebrales y, por
otra, crear nuevas terapias que permitieran recuperar la movilidad y
sensaciones perdidas en pacientes con discapacidad grave, a raíz de
los últimos avances en este campo de investigación han surgido una
amplia gama de aplicaciones que han expandido estos propósitos
originales (Lebedev y Nicolelis, 2017). En concreto, a partir de la
actividad cerebral se han desarrollado aplicaciones basadas en
control de cursores (Bacher et. al, 2015; Kennedy et. al, 2000;
Wolpaw et. al, 1991), sintetizadores del habla (Fontanillo et. al,
2020; Rashid et. al, 2020; Slutzky, 2019; Zhang et. al, 2020),
neuroprostética –entre las que se incluyen prótesis biónicas,
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
56 JONATHAN GONZÁLEZ SANTOS
auditivas o visuales– (Fontanillo et. al, 2020; Zhang et. al, 2020),
sillas de ruedas inteligentes (Kawala-Sterniuk et al., 2021; Rashid et.
al, 2020), diagnóstico de enfermedades (Fontanillo et. al, 2020),
neurofeedback –neuroterapia basada en retroalimentación de la
actividad cerebral del individuo– (Fontanillo et. al, 2020; Minguez,
2010), neuroergonomía –diseño de ambientes inteligentes basados
en neurotecnología– (Fontanillo et. al, 2020; Minguez, 2010),
biometría y seguridad (Alimardani e Hiraki, 2020; Fontanillo et. al,
2020; Minguez, 2010; Rashid et. al, 2020), educación (Alimardanie
Hiraki, 2020; Fontanillo et. al, 2020), gaming y realidad virtual
(Fontanillo et. al, 2020; Minguez, 2010; Rashid et. al, 2020) o
neuromarketing (Fontanillo et. al, 2020; Kawala-Sterniuk et al.,
2021).
Como se puede apreciar, las utilidades de estos dispositivos son
diversas. En la actualidad se ofrecen múltiples servicios cuyo
número no para de aumentar a medida que pasa el tiempo. Entre las
innovaciones más recientes, un ejemplo relevante es el llevado a
cabo por BrainNet. En este proyecto se están haciendo pruebas en
humanos con interfaces cerebro-cerebro no invasivas para tareas de
resolución colaborativa de problemas. Concretamente estos
dispositivos combinan registros EEG con estimulación magnética
transcraneal para la transmisión de información no invasiva a otro
cerebro. En una de las tareas, dos sujetos que actúan como
«remitentes» informan a un tercero, «receptor», sobre si debe girar
un bloque en un juego similar al Tetris, sin que este pueda ver la
pantalla del juego. La tarea ha sido resuelta con muy buenos
resultados y nos apunta hacia nuevos sectores donde está tecnología
prevé expandirse (Rashid et. al, 2020).
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 57
Neuralink
En este contexto aparece Neuralink, empresa que queremos destacar
por tener probablemente el proyecto más ambicioso que existe
actualmente en cuanto a sus objetivos a largo plazo. Además, esta
start-up cuenta con Elon Musk entre sus fundadores, una figura
relevante por varios motivos; Musk comenzó el 2021 proclamándose
como la persona más rica del planeta (Klebnikov, 2021). Su visión
de mercado y conocimientos del sector empresarial lo han
convertido en una de las principales influencias en el ámbito de la
innovación, lo que se traduce en una importante movilización de
capital en todos sus proyectos. En concreto, en 2019, Neuralink ya
había recibido 158 millones de dólares en financiamiento (Markoff,
2019). Un año después, durante el evento Neuralink Progress
Update, la compañía anunció que había conseguido la aprobación de
la Food and Drug Administration (FDA) de [Link]. para hacer
pruebas en humanos, según palabras del CEO.
La empresa se está enfocando fundamentalmente en resolver
aspectos técnicos asociados a la ingeniería de las interfaces que
permitirán ampliar su potencial. Concretamente, pretende aumentar
la cantidad de electrodos en al menos dos órdenes de magnitud con
respecto a los dispositivos que están aprobados clínicamente,
creando un sistema invasivo, seguro y eficaz, que permita a sus
usuarios utilizarlo fuera del laboratorio. Los avances presentados
hasta la fecha se basan en sondas de polímero ultrafinas, un robot
neuroquirúrgico y otros elementos electrónicos personalizados
(Musk, E. & Neuralink, 2019; Web de Neuralink, s.f.):
El componente central es el «Link», un dispositivo que se
implanta en la corteza cerebral y que contiene chips con la capacidad
de procesar y transmitir información obtenida a partir de las
neuronas en tiempo real, e incluso permite estimular dichas
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
58 JONATHAN GONZÁLEZ SANTOS
células por estimulación cerebral profunda –deep brain stimulation,
DBS–. Además, posee una batería que puede ser cargada
inductivamente desde el exterior (Musk, E. & Neuralink, 2019;
Neuralink). Este implante está conectado a unas sondas de escala
neuronal y muy flexibles que contienen muchos electrodos. En total
suman un orden de magnitud más de los que poseen los dispositivos
de la competencia y pretenden que este número aumente a medida
que vayan optimizando la tecnología. El tamaño y la composición de
dichas sondas concuerdan mejor con las propiedades del material del
tejido cerebral, comparándolas con las que utilizan otras compañías,
y, por lo tanto, poseen mejor biocompatibilidad (Musk, E. &
Neuralink, 2019; Neuralink). No obstante, son tan finas y flexibles
que la mano humana no las puedeinsertar. Para ello, han desarrollado
un sistema robótico que el neurocirujano puede usar para insertarlas
individualmente con una precisión de micras, a través de una sola
apertura en el cráneo de 8 milímetros, y dirigirlas hacia las regiones
específicas del cerebro en las que deben estar (Musk, E. & Neuralink,
2019; Neuralink). Adicionalmente, están trabajando en la aplicación
Neuralink. De momento esta aplicación no está disponible ni
aprobada por la FDA, por lo que no tenemos información sobre ella.
No obstante, en la página web de Neuralink nos presentan una
simulación en la que se puede intuir cómo podrá ser. Aparentemente
dispondrá de ejercicios que permitirán controlar mejor diferentes
dispositivos a través de la actividad cerebral.
Objetivos
Los objetivos a corto plazo de Neuralink son similares a algunos de
los que hemos visto en el apartado anterior. A saber; mejorar la
calidad de vida de personas con parálisis facilitándoles modos
alternativos de comunicarse, ya sea por medio de texto o por
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 59
síntesis de voz, además de proporcionarles diferentes alternativas
de ocio como puede ser navegar por la web o utilizar diferentes
softwares de los dispositivos tecnológicos que usamos
cotidianamente, como aplicaciones de fotografía, arte, etc. Una vez
cumplido este objetivo, el siguiente paso será ampliar el espectro
de trastornos a tratar, incluyendo otras alteraciones neurológicas
relacionadas con funciones motoras o sensoriales (Musk, E. &
Neuralink, 2019; Neuralink).
A largo plazo, los objetivos se tornan mucho más abstractos y
ambiciosos. En una entrevista para Code Conference (2016), Musk
mostraba su preocupación sobre los peligros que acarrearían los
avances en inteligencia artificial (IA), y planteaba una posible
solución para hacerles frente. Mediante un símil sobre la evolución
del cerebro humano, se refirió al sistema límbico —primitivo,
asociado con las emociones— como una «capa» a la que
posteriormente se le sumaría otra más, la neocorteza —implicada en
aspectos más complejos que podemos asociar con la inteligencia—.
Contra la amenaza que suponen los progresos en IA, Elon proponía
añadir una tercera capa digital que actúe en simbiosis con las otras
dos, al fin y al cabo, según comentaba, esta capa ya la poseemos
gracias a los dispositivos inteligentes que utilizamos a diario, es
decir, en la actualidad interactuamos con la IA, pero dicha
interacción se ve limitada, dado que la entrada y salida de
información depende de nuestros pulgares.
La idea presentada, con algunos matices, finalmente se
materializó en la creación de Neuralink. A medida que desarrolle la
tecnología y consiga acceder a más áreas corticales, la empresa
pretende ampliar la forma en la que los humanos interactuamos, tanto
a nivel individual como en sociedad. A partir de esta simbiosis con
la inteligencia artificial, según ha apuntado Musk, podremos
asegurar nuestro futuro como civilización (Musk et al., 2019). De
una forma más concreta, durante el Progress Update de
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
60 JONATHAN GONZÁLEZ SANTOS
Neuralink, el equipo reveló algunas funciones que consideran que
se podrán desarrollar en el futuro y que a día de hoy pueden
parecernos de ciencia ficción, como descargar nuestros recuerdos o
poseer una supervisión que nos permita ver radiación infrarroja o
ultravioleta, entre otras (Musk et al., 2020). No obstante, como
respuesta, se han producido muchas críticas por parte de la
comunidad científica, que ven con bastante escepticismo estas
declaraciones. Por ejemplo, en una publicación de MIT Technology
Review se criticaba duramente estas ideas, tachando a Neuralink
como un teatro de las neurociencias, al considerar que prometen
cosas que serán muy difíciles de cumplir (Regalado, 2020). De lo
que no cabe duda es de que independientemente de que se consigan
estos objetivos finales, la tecnología basada en interfaces cerebro-
máquina puede acceder a una información muy delicada y personal,
que por lo tanto lleva asociadas unas implicaciones éticas que no
podemos dejar pasar por alto, como veremos a continuación.
Aspectos éticos
Si hacemos una revisión de la literatura científica que trata sobre
temas afines a las BMI no tardaremos en darnos cuenta de la
preocupación que genera en cuanto a los aspectos éticos que plantea
su utilización. Frecuentemente se discute más de un tema de los que
abordaremos en este apartado, ya sea en estudios técnicos que
dedican una sección a las implicaciones éticas, como en artículos en
los que estas últimas constituyen el tema [Link] temas en los
que nos enfocaremos son; seguridad y equilibrio riesgo-beneficio,
privacidad y consentimiento informado, alteración del «yo»
(autonomía y responsabilidad e identidad), mejora y justicia.
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 61
Seguridad y equilibrio riesgo-beneficio
Una de las principales preocupaciones que existen son las
consecuencias adversas asociadas a la seguridad de los dispositivos,
registradas tanto en contextos médicos como no médicos (Fontanillo
et. al, 2020). En el primer caso, estudios como el de Tamburrini y
Mattia (2011) alertan sobre posibles daños graves derivados de la
plasticidad neuronal, causados por el uso de dispositivos no
invasivos, especialmente cuando se aplican a largo plazo en niños y
adultos jóvenes. Los problemas de seguridad no médicos también
son muy discutidos y abarcan un gran espectro, que va desde las
emociones negativas generadas durante el entrenamiento intenso
(Glannon, 2014) hasta situaciones en las que la vida del usuario se
puede ver en peligro provocadas por fallas tecnológicas (Hildt,
2011). De igual forma, algunos autores también reflexionan sobre
la vulnerabilidad de las BMI, y las consecuencias en la salud de sus
usuarios que conllevarían posibles ciberataques contra estos
dispositivos en determinados contextos (Fontanillo et. al, 2020;
Zhang et al. 2020).
Por una parte, si nos centramos en las consecuencias médicas de
estas aplicaciones clínicas, está claro que tanto las fallas como los
secuestros de los dispositivos BMI podrían tener efectos
extremadamente perjudiciales para los individuos. Por otra parte,
otras aplicaciones de esta tecnología no son médicas y tienen como
objetivo mejorar la calidad de vida del público en general. Estos usos
suelen basarse en tecnología no invasiva, en la que los posibles
riesgos clínicos parecen menores a priori. Sin embargo, pasarán años
o décadas antes de que conozcamos su impacto en la sociedad. A
pesar de esto, comenzar ya el análisis ético puede ayudar a orientar
su desarrollo. De hecho, la importancia de estos análisis se puede ver
atendiendo a los riesgos no médicos, como la frustración, en los que
el debate ético se ha estado centrando en los
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
62 JONATHAN GONZÁLEZ SANTOS
últimos años y cuyas objeciones han impulsado la búsqueda de
mejoras en los dispositivos. Por ejemplo, una de las soluciones que
se han propuesto ha sido diseñar BMI adaptativas que puedan
interactuar con los estados mentales de los usuarios, lo que reduce
cargas físicas y emocionales. Concretamente los prototipos
presentados se basan en dispositivos que se desactivarían y
reactivarían automáticamente en función de los niveles de atención
del usuario o que modifiquen sus algoritmos en función de
determinados estados mentales. Por lo tanto, el reto de la seguridad
se ve como un tema crítico, y por ello los expertos coinciden en que
deben celebrarse discusiones más extensas sobre los riesgos y
beneficios de los dispositivos entre los que se incluyan temas como
las fallas y la vulnerabilidad algorítmica, con el objetivo de que los
aspectos señalados estén incluidos cuando aparezcan dichos avances
tecnológicos, y de este modo se garantice una tecnología más precisa
y segura (Fontanillo et. al, 2020).
Privacidad y consentimiento informado
Como se venía anticipando, la información que se puede obtener de
los dispositivos basados en BMI abarca múltiples aspectos de la
persona, desde simples procesos o estados psicológicos temporales
hasta rasgos de la personalidad o trastornos mentales (Burwell etal.,
2017; Fontanillo et. al, 2020). De hecho, tal y como subrayan
algunos expertos, el potencial de estos dispositivos es tal, que la
persona podría desconocer el alcance de los datos que se obtienen de
su cerebro (Vlek et al., 2012). El concepto de privacidad surge
especialmente para intentar frenar el impacto que un mal uso de
dicha información podría tener en la vida del usuario. Como por
ejemplo problemas de discriminación en determinados contextos
(Fontanillo et. al, 2020; Vlek et al., 2012).
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 63
De todas las cuestiones éticas que se plantean en este artículo, la
privacidad es la que se encuentra más avanzada en cuanto a lo que
su legislación se refiere. Por ejemplo, en Europa ya existe cierta
regulación sobre los datos cerebrales obtenidos en el ámbito clínico.
Según lo proclamado en el Reglamento General de Protección de
Datos (GDPR), que entró en vigor en 2018, los datos cerebrales se
califican como datos sensibles, lo que genera estándares de
protección más altos que los de los datos personales. Esto significa
que los motivos para procesar datos sensibles bajo el GDPR se han
vuelto más estrictos y deben cumplir con estándares de seguridad
más altos. Además, con respecto al consentimiento informado,
algunos de los datos que deben proporcionarse de acuerdo con el
RGPD son la identidad de los responsables del tratamiento, la
finalidad del tratamiento y las actividades de tratamiento que pueden
llevarse a cabo. El objetivo buscado es que las tanto entidades
públicas como privadas garanticen la transparencia en el tratamiento
de estos datos, así como la adecuadaseguridad y confidencialidad de
los mismos. Dicho reglamento avala que la información extraída se
mantendrá confidencial en una base de datos, y sus resultados solo
deben ser compartidos por motivos científicos y de forma anónima
para asegurar la privacidad del sujeto de investigación. No cumplir
con estas medidas se considerará una violación de cualquier práctica
de investigación ética y conllevaría sus correspondientes sanciones
legales. Según el marco europeo actual para la privacidad y la
protección de datos, los infractores pueden ser multados con hasta el
4% de su facturación global, o 20 millones de euros (Fontanillo et.
al, 2020). Asimismo, las instituciones deberán mantenerse
actualizadas y desarrollar ejercicios de higiene cibernética y
seguridad. Por ejemplo, las comunicaciones entre los sensores de
los dispositivos y las unidades de procesamiento o almacenamiento
se basarán en protocolos encriptados. Al mismo tiempo, los
firewalls y las
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
64 JONATHAN GONZÁLEZ SANTOS
soluciones de seguridad basadas en sistemas de nombres de dominio
deben mantenerse actualizados para evitar el acceso no autorizado y
proteger los dispositivos cuando están expuestos en contextos
cotidianos (Fontanillo et. al, 2020).
Otro problema que surge es la posibilidad de acceder a los
procesos mentales de los individuos sin su consentimiento previo
(Farah, 2015). Una decisión autónoma expresada a través de un
consentimiento informado debería presuponer que el paciente: (1)
comprende la información relevante sobre el tratamiento o la
investigación y los riesgos y beneficios relacionados, (2) conoce los
diferentes métodos terapéuticos o de investigación y las
consecuencias relacionadas, (3) Ha contemplado diferentes
opciones y (4) Ha comunicado una elección personal (Farisco et al.,
2015). No obstante, en el contexto de las BMI aparece una dificultad
adicional, ya que muchos de sus usuarios son pacientes que no se
comunican –como por ejemplo los pacientes que sufren síndrome de
enclaustramiento (LIS)– y, por lo tanto, tienen una capacidad
significativamente disminuida para dar su consentimiento (Burwell
et al., 2017; Fontanillo et. al, 2020). Aunque la mayoría de los
investigadores están de acuerdo en que los beneficios actuales
superan los riesgos en personas con LIS que utilizan dispositivos no
invasivos, algunas de ellas pueden no querer utilizarlos. De la misma
forma, se ha debatido sobre qué pacientes son adecuados para dar su
consentimiento, aunque puedan comunicarlo. El motivo de este
debate se basa en la contemplación de que la voluntad del
consentimiento puede verse mermada en diferentes situaciones,
como en casos límite en que los pacientes actúen por desesperación
o como último recurso (Burwell et al., 2017). También se cree que
dicha voluntad puede verse alterada por expectativas poco realistas,
alimentadas por los medios de comunicación, que suelen dar una
cobertura excesivamente positiva y futurista a las noticias
relacionadas con la
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 65
neurotecnología. Los especialistas opinan que estas expectativas
pueden conducir a un consentimiento que no está tan informado
como debería ser (Burwell et al., 2017).
Alteración del «yo»
Dada la magnitud de las aplicaciones y siendo el cerebro el foco
principal sobre el que actúa esta tecnología, el debate sobre las BMI
se ha derivado irremediablemente hacia cuestiones complejas
relacionadas con la naturaleza humana y el comportamiento social.
Específicamente, se plantean preguntas sobre la base biológica de
la personalidad y el comportamiento social, así como el papel de la
neurobiología en la toma de decisiones (Illes y Bird, 2006) tales
como; ¿Nuestro «yo» se transforma en otro por estas intervenciones?
¿Somos la misma persona que éramos antes de la operación o antes
de la estimulación? ¿Cambia nuestra noción de
«responsabilidad» legal si las neuroprótesis inteligentes actúan
haciendo interpretaciones de manera autónoma, o incluso cambian
nuestra actividad cerebral? ¿Está amenazada la identidad personal
del paciente en estos casos? (Müller y Rotter, 2017). Aunque las
preguntas sobre la naturaleza, identidad y comportamiento humano
han sido tratadas en discusiones filosóficas que se remontan a la
antigüedad, en las últimas décadas, los hallazgos científicos sobre la
estructura y función del sistema nervioso se han incorporado al
debate sobre la naturaleza de la mente y el cerebro. Atendiendo a
dicho debate, en la actualidad nos encontramos con expertos
divididos entre los que defienden que todo proceso mental viene
determinado por la acción del sistema nervioso y los que se oponen
a esta idea (Vázquez Costa y Vázquez Costa, 2013).
Dentro del primer grupo, los académicos derivan el debate a
investigaciones que demuestran que gran parte de los mecanismos
cerebrales que constituyen el sustrato biológico de los procesos
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
66 JONATHAN GONZÁLEZ SANTOS
mentales tienen lugar fuera del alcance de la conciencia. Entre los
autores más citados a favor del determinismo se encuentra Libet,
cuyos experimentos demostraron que la actividad cerebral es previa
a la conciencia de voluntad de actuación, lo que ha llevado a que
algunos académicos hayan interpretado estos resultados como que
libre albedrío es ilusión cerebral. Otros, por su parte, se oponen a
esto y consideran que la libertad, desde un punto de vista biológico,
debe ser concebida como un concepto continuo en vez de
dicotómico. Aunque reconocen que el ser humano se encuentra
condicionado por la acción del sistema nervioso, es capaz de tomar
decisiones para las que biológicamente no está «programado» por lo
que es más libre de lo que los deterministas opinan (Vázquez Costa
y Vázquez Costa, 2013). Kenneth Schaffner, en uno de sus trabajos,
exponía que los circuitos cerebrales no generan decisiones morales
en principio, sino que más bien, el «yo» se va construyendo a través
de la suma de un conjunto inicial de condiciones y la predicción de
los estados y elecciones posteriores varía en función de diversos
factores, desde la neurofisiología hasta la experiencia personal (Illes
y Bird, 2006; Schaffner, 2002). Por suparte, Stephen Morse alerta de
que los datos obtenidos por técnicas de neuroimagen podrían cegar
a las personas ante el supuesto legal fundamental de que «las
personas son agentes conscientes, intencionales y potencialmente
racionales» y, por lo tanto, responsables por sus acciones (Illes y
Bird, 2006; Morse, 2006). En definitiva, las críticas al determinismo
se basan en que sus aproximaciones conducen a conclusiones
reduccionistas que sitúan
«la mente» en el cerebro. Sin embargo, esta visión no es compartida
por toda la comunidad científica, que también reconoce que la
reducción tanto de «la persona» como de la «la mente» a su cerebro
es una formulación «innecesariamente incompleta y humanamente
insatisfactoria» y no es, al menos por el momento, científicamente
asumible (Vázquez Costa y Vázquez Costa, 2013).
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 67
Por consiguiente, el debate aún no está resuelto. Sin embargo, si nos
enfocamos en aspectos más concretos, existe evidencia de casos de
personas que experimentan determinados trastornos, tanto
neurológicos como mentales con fuerte base biológicas en las que
las decisiones parecen tomarse en contra de los valores personales
o la voluntad del individuo y en los cuales la psicoterapia no es lo
suficientemente efectiva. Además, sabemos que se han reportado
cambios en la personalidad en individuos que han sido sometidos a
intervenciones neuroquirúrgicas. Diversos estudios han reportado
cambios en el comportamiento de pacientes sometidos a este tipo de
intervenciones hacia la impulsividad, hipersexualidad, manía y juego
(Agid et al. 2006; Gisquet, 2008; Glannon, 2009), o que dicen
sentirse «como un robot» o «bajo control remoto» (Goeringet al.,
2017; Schüpbach et al., 2006). Teniendo esto en cuenta y en
referencia a la tecnología que nos ocupa ¿Qué tipos de riesgos
pueden plantearse? ¿Cuáles son aceptables?
Identidad
Algunos autores afirman que las BMI pueden cambiar nuestra
identidad social o determinados aspectos físicos y/o psicológicos
individuales. Argumentan que el potencial de las BMI para inducir
cambios en el cerebro es algo que debe considerarse. En
contraposición a esto, otros opinan que no vale la pena discutir los
cambios de identidad desde un punto de vista ético, ya que los
propios pacientes se enfrentan a cambios radicales de identidad
provocados por la enfermedad que sufren.
Por otra parte, hay expertos señalan que nuestra identidad fluctúa
de forma natural y puede ser modificada por otras terapias médicas
como la medicación o incluso tomando una copa de vino o saliendo
de vacaciones. Desde este enfoque también se ha sugerido
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
68 JONATHAN GONZÁLEZ SANTOS
que «Sería más que arrogante decirles a los usuarios: “Creo que esto
podría cambiar su identidad, por lo que no les permito utilizar esta
tecnología”». Por lo tanto, exponen que el debate no se debería
enfocar tanto en si las BMI provocarán cambios de identidad, sino
en si esos cambios suponen realmente una amenaza a la identidad
por sí mismos o simplemente deben ser vistos como alteraciones que
pueden ser beneficiosas o perjudiciales para el usuario, situando el
concepto de identidad como algo fijo o mutable en el foco de debate
(Fontanillo et. al, 2020).
Teniendo en cuenta las desventajas mencionadas, y en contraste con
las ventajas que proporcionan estos dispositivos expuestos
anteriormente, la cuestión que queda aún por identificar está
relacionada con las preferencias del paciente, ya que es posible que
los usuarios estén dispuestos a sacrificar algún nivel de exposición
a favor de tener una mayor autonomía.
Autonomía y responsabilidad
Hablar de autonomía en el contexto de las interfaces cerebro-
máquina es algo complejo, ya que el término presenta dos acepciones
diferentes y dependiendo del campo de estudio del experto que las
emplee tendrá un significado distinto. Mientras que para los
neurocientíficos e ingenieros hace referencia a la independencia con
la que una persona realiza una tarea sin ayudade otros, para los
eticistas está más ligado a la autodeterminación o voluntad de los
individuos por realizar una determinada acción (Burwell et al.,
2017). Así pues, para algunos autores, el uso de esta tecnología
favorece la autonomía individual, siempre dentro del contexto
clínico y no en otros sectores como el del ocio (Burwell et al., 2017;
Fontanillo et. al, 2020).
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
69
No obstante, la amenaza para la aceptación social de las BMI se basa
en su capacidad potencial para «comprender» los procesos de toma
de decisiones que puedan promover nuevas formas de manipulación
y limiten la autonomía del usuario. Este debate ha sido planteado en
muchas ocasiones por las políticas públicas y diferentes
instituciones, especialmente en el campo del neuromarketing. En
este sentido, el uso de la neurociencia para comprender el
subconsciente de los consumidores y alterar sus decisiones de
compra es una preocupación ética ampliamente difundida. Algunos
autores creen que a partir de la decodificación de la actividad
cerebral del consumidor y desarrollando técnicas de comunicación
efectivas, las corporaciones podrán descubrir el
«botón de compra» en el cerebro de los consumidores, lo que en
última instancia puede conducir a niveles de manipulación sin
precedentes (Fontanillo et. al, 2020). Asimismo, a raíz de algunos
proyectos, como los llevados a cabo por la Agencia de Proyectos de
Investigación Avanzados de Defensa (Defense Advanced Research
Projects Agency, DARPA) como RAM (Restoring Active Memory)
o SUBNETS (Systems-Based Neurotechnology for Emerging
Therapies), cuyos objetivos incluyen la manipulación de procesos
cognitivos y emocionales, cada vez más autores empiezan a
preocuparse por los posibles efectos secundarios del uso de BMI
sobre la autonomía (Farah, 2015; Ling, 2013).
Por otra parte, los especialistas están incorporando en su debate
asuntos que podrán tener gran repercusión en un futuro en el que la
tecnología BMI esté consolidada, como, por ejemplo, si tenemos
menos control sobre nuestros pensamientos que sobre la conducta
más perceptible, o si la elección de usar esta tecnología hace que el
usuario sea responsable de todas las salidas del dispositivo. Algunos
autores opinan que las BMI podrían funcionar «demasiado bien», y
como resultado, ejecutar acciones a partir de eventos subconscientes
o pensamientos pasajeros (Burwell et al., 2017).
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
70 JONATHAN GONZÁLEZ SANTOS
Respecto a esto, los expertos están divididos entre los que opinan que
el usuario debe de ser responsable de las acciones ejecutadas, sean
intencionadas o no, y lo equiparan con la responsabilidad que tienen
los padres, o dueños de mascotas, por las acciones de sus hijos o
animales de compañía, y los que sugieren que las acciones
inconscientes deberían considerarse como un defecto del dispositivo
y que, por tanto, la responsabilidad debería recaer en sus fabricantes
(Tamburrini, 2009; 2014). Además, un último punto a tener en cuenta
es la posibilidad de que el dispositivo sea hackeado y por tanto las
acciones sean creadas por un tercero. Por todo lo expuesto,
actualmente el debate gira en torno a si las herramientas disponibles
son suficientes para abordar todas las consideraciones que plantea el
uso de BMI o requerirán cambios en nuestros sistemas legales y
comprensión de la moralidad (Burwell et al., 2017).
Mejora
Otra cuestión que surge es el hecho de que a medida que esta
tecnología se vaya consolidando para el uso terapéutico,
probablemente le seguirán otros usos no terapéuticos, de forma
análoga a como ha ocurrido con otras terapias médicas, desde la
cirugía plástica hasta la psicofarmacología, cuyo uso ha sido
reportado en diferentes contextos como en el caso de estudiantes
universitarios para aumentar su atención, o incluso para mejorar las
habilidades de juego (Farah, 2015). Relacionado con esto, algunos
autores han señalado que el empleo de la neurotecnología puede
resultar más efectivo que los métodos farmacológicos de mejora
cognitiva que se emplean en la actualidad (Farah, 2015). Así pues, al
respecto, es conveniente señalar algunos aspectos importantes a
tener en cuenta. El primero es que la mejora de las funciones que
ofrecen las interfaces cerebro-máquina va ligada a la
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 71
mercantilización de las habilidades humanas (Farah, 2015).
Asimismo, dado que nuestro organismo funciona como un todo, en
muchos casos la mejora de una habilidad implica el costo de otra,
por lo que debería considerarse a la hora de tener en cuenta en qué
casos estaría justificado su uso.
Por otra parte, a pesar de que el estado actual de la tecnología no
permite otorgar nuevas funciones sobrehumanas a sus usuarios,
Musk no es el único que opina que esto puede acontecer a largo
plazo, por ejemplo, en una publicación, Zehr expone que el
desarrollo de tecnologías que mejoran el intelecto y la fisiología
humanos podría transformar la condición humana, y como resultado,
el homo sapiens sapiens evolucionaría hacia un homo sapiens
technologicus que utiliza la tecnología para mejorar su
funcionamiento (Zehr, 2015). Esta reevaluación de la humanidad se
ha denominado tradicionalmente «transhumanismo» (Farah, 2015;
Fontanillo et. al, 2020) y constituye en la actualidad un movimiento
cultural e intelectual consolidado, con múltiples corrientes, que ha
generado gran controversia en la población. Si bien no hay garantía
para que esto suceda, tampoco hay razón para suponer que no pasará.
Por consiguiente, cabe preguntarnos ¿qué opinan los eticistas al
respecto?
El filósofo Nick Bostrom ofrece un argumento principalmente
consecuencialista en el que enfatiza «el enorme potencial de mejoras
genuinas en el bienestar y el florecimiento humano que solo se
pueden lograr mediante la transformación tecnológica» (Bostrom,
2005). Para el consecuencialismo hedonista, las acciones éticas son
aquellas que maximizan el placer de todos. Resulta evidente que las
preferencias humanas pueden estar equivocadas, por este motivo se
han considerado otras aproximaciones, entre las que se incluye el
consecuencialismo perfeccionista, que nos dice que debemos
«maximizar la perfección o el pleno florecimiento del potencial
humano». Independientemente de las particularidades de
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
72 JONATHAN GONZÁLEZ SANTOS
cada subrama, en general, el consecuencialismo alude a que la
mejora puede ayudar a lograr una buena vida, proporcionando
cualidades que aumentan las posibilidades de que la tengamos,como
la salud o la inteligencia (Farah, 2015).
Esta visión parece contradecir a la comprensión deontológica de
la ética. Desde este enfoque se contempla que la mejora de las
funciones psicológicas mediante la intervención del cerebro es
análoga a cuando, por ejemplo, modificamos nuestro coche para
aumentar su rendimiento, yaque en los dos casos,
independientemente de los resultados, estamos tratando a una
persona como un objeto, lo que se traduce en una disminución de
nuestra humanidad. En palabras del Consejo de Bioética del
Presidente (2003) bajo George W. Bush; «Los logros personales
alcanzados de manera impersonal no son realmente los logros de las
personas. [El problema] no radica en el hecho de que los
medicamentos y dispositivos auxiliares son artefactos, sino en el
peligro de violar o deformar la naturaleza de la acción humana y la
dignidad de la forma de vida naturalmente humana» (Farah, 2015).
El argumento consecuencialista de la perfección también ha sido
utilizado en contra de la mejora neurotecnológica por bioeticistas a
los que les preocupa que el uso de estas mejoras acabe sucumbiendo
a la «tiranía de lo perfecto». Para García Sánchez (2013), a la
tradición médica se le está imponiendo que se subordine a los
dictados políticos y mediáticos que le indican qué es lo normal en la
salud. Y, a su vez, dicho dictado cada vez busca niveles más altos de
perfección genética, mental y estética». Según palabras del autor,
alcanzar un alto grado de autonomía y de independencia constituye
un deseo legítimo y positivo de toda persona y sociedad. Pero una
fanática ponderación de estos valores terminaría por rechazar que el
ser humano no viene definido por una autonomía y perfección
absolutas, ni por estados biológicos puros, sino por lo contrario:
estados transitorios de enfermedad y
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 73
dependencia. El pensamiento de este académico parece concordar
con lo que sugieren algunos estudios como el de Blanco Mercadé y
Fernández Natal (2013) en el cual, el propio personal médico definía
a la enfermedad exclusivamente desde los tratados de patología
médica, sin tener en cuenta los aspectos biográficos del hecho de
enfermar.
El autor reconoce la importancia de los logros en el campo de la
biomedicina en cuanto a la erradicación de enfermedades y la mejora
en las condiciones de higiene y salud de la sociedad, e incluso que
algunas acciones de cuidado corporal o mejoramiento estético
proporcionan a la persona una situación de bienestar con efectos
positivos para su salud. Pero le preocupa la generalización, cada vez
más extendida, de la vinculación causa/efecto entre belleza estética
y salud física y mental, ya que, como afirma, desde el mero mercado
se está determinando cuales han de ser los parámetros exigibles para
garantizar una salubridad óptima. Es decir, una supuesta normalidad
que debería ser medicalizada en el caso de no alcanzar esos niveles,
lo que se traduce en una patologización de la normalidad, o lo que es
lo mismo, de la propia sociedad. Argumenta que si bien este
fenómeno es más apreciable en el campo de la estética, no es
exclusivo de esta especialidad y cada vez se está expandiendo a más
ámbitos de la medicina y otras disciplinas. Socialmente, —
continúa— se presentan como iconos de normalidad los cuerpos de
las celebridades, deportistas de élite,o ciudadanos que por su nivel
económico han accedido a mejoras de su físico, transmitiendo una
idea ilusoria de la normalidad que trae como consecuencia que cada
vez más personas vean como un estigma social la ausencia de
determinados aspectos estéticos en su corporalidad, sintiéndose
presionadas a acceder a tratamientos de mejora físicas y/o psíquicas
hasta el momento innecesarios (García Sánchez, 2013).
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
74 JONATHAN GONZÁLEZ SANTOS
Para concluir con el concepto de la búsqueda de la perfección y
analizar el impacto que este hecho puede provocar en la población,
podemos trasladar la pregunta a la ciencia y ver hacia donde apuntan
los estudios. Un ejemplo de estos es el llevado a cabo por Bigatti
(2020) que revela que tanto el perfeccionismo como el síndrome del
impostor (estrechamente vinculado a personas con rasgos de
personalidad perfeccionista) están asociados con una salud mental
más deficiente. Se encontró que el perfeccionismo se correlacionó
positivamente con depresión, ansiedad, ideación suicida, burnout,
angustia psicológica, cinismo y bajos niveles de autoconfianza, entre
otros aspectos de salud mental. Considerando esto, la búsqueda de la
perfección no parece ser tan positiva como plantean algunos autores
consecuencialistas.
Justicia
Entre las cuestiones relacionadas con la justicia, el debate sobre la
ética de las BMI abarca todo el proceso del desarrollo tecnológico,
desde aspectos más generales como su distribución hasta otros más
concretos como el propio diseño de los dispositivos.
Respecto a este último punto, algunos especialistas en la materia
sugieren que, a medida que se consolide el uso de las BMI, las
personas con mayor probabilidad de verse afectadas por esta
tecnología deberían participar en el proceso de diseño, incluyendo
tanto a los usuarios potenciales como a otros sectores de la población
(Burwell et al., 2017). La importancia de esta cuestión queda más
clara si contemplamos algunos trabajos como el de Wolbring y col.
(2013), a los que les preocupa que la mayoría de la literatura sobre
interfaces cerebro-máquina trate la diversidad funcional como un
problema médico en lugar de sociocultural, lo que sugiere que no se
han considerado algunas perspectivas de estas personas, y
promueve su estigma social. Las BMI aparecen
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
NEURALINK: IMPLICACIONES ÉTICAS 75
siguiendo un enfoque clínico que busca, de forma análoga a la que
lo harían algunos «tratamientos» médicos, la restauración de las
capacidades «normales» de los individuos. Si bien esto puede
parecer positivo, no lo es para determinadas personas condiversidad
funcional que no se ven a sí mismas como discapacitadas y
consideran que estas atribuciones se hacen bajo la perspectiva de «la
tiranía de lo normal». Por ejemplo, algunas personas de la
comunidad sorda no ven a los implantes cocleares como un
tratamiento, sino como una mejora (Burwell et al., 2017). Así pues,
definir cuál es el estándar de lo «normal» y, consecuentemente, la
línea divisoria entre tratamiento y mejora, es un gran desafío que
implica cuestiones éticas subyacentes, como la capacidad de la
persona para determinar de manera autónoma su tipo particular de
cuerpo o forma de vida (Burwell et al., 2017).
Otra cuestión de justicia social asociada con la mejora
neurotecnológica y el transhumanismo está relacionada con la
distribución equitativa de estos dispositivos entre todos los sectores
de la población. Algunos autores opinan que la administración
adecuada de esta tecnología podría disminuir las desigualdades
originadas por la educación recibida o incluso los propios genes
implicados en características personales, como coeficientes
intelectuales más altos o temperamentos más felices (Farah, 2015).
Sin embargo, si no se toman medidas, lo más probable será que los
ya privilegiados sean los que disfruten de los beneficios de las
mejoras tecnológicas, resultando en un fracaso de la justicia
distributiva.
Por lo que se refiere al transhumanismo, los expertos defienden
que, si finalmente llega a presentarse como una realidad, es probable
que cambie las normas sociales y genere nuevas formas de
discriminación. Los entornos distópicos, en los que los humanos
coexistan con transhumanos, podrían promover una nueva
estratificación social. Asimismo, anular el acceso igualitario a los
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91
recursos como consecuencia del acceso desigual a la tecnología
puede agravar la competencia social y la injusticia entre los
colaboradores, generando así nuevas formas de discriminación
(Farah, 2015). Por otra parte, incluso aunque se garantice una
distribución justa, también preocupa que la mejora continuada en la
escuela o el trabajo acabe redefiniendo lo «normal», y por
consiguiente las demandas de trabajo sean cada vez más difíciles de
alcanzar para aquellos que no se adhieran a esta tecnología o
dispongan de una versión obsoleta de la misma. Esta situación puede
conllevar que muchos se resistan a tener que depender de lo que
terceras personas hayan decidido fijar a su gusto sobre lo que debe
ser lo perfecto y normal en el ser humano (García Sánchez, 2013).
Partiendo de esta reflexión, algunos especialistas como Francis
Fukuyama se refieren al transhumanismo como «la idea más
peligrosa del mundo» al contemplar la idea de que aquellos humanos
a los que no les vaya bien en un mundo con transhumanos puedan ser
vistos como formas de vida inferiores y tratados en consecuencia.
Así pues, el politólogo plantea la siguiente pregunta:
«Si comenzamos a transformarnos en algo superior, ¿qué derechos
reclamarán estas criaturas mejoradas, y qué derechos poseerán en
comparación con los que quedaron atrás?» (Fukuyama, 2009).
Argumentos de Razón Técnica, nº 25, 2022, pp. 53-91