0 calificaciones0% encontró este documento útil (0 votos) 58 vistas55 páginasDirectrices IA
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido,
reclámalo aquí.
Formatos disponibles
Descarga como PDF o lee en línea desde Scribd
GRUPO INDEPENDIENTE DE EXPERTOS DE
ALTO NIVEL SOBRE
eee leew ale yl
CREADO POR LA COMISION EUROPEA EN JUNIO DE 2018
aK
bd a
EAN ios
Fa
DIRECTRICES ETICAS
PARA UNA IA FIABLEDIRECTRICES ETICAS para una [A FIABLE
Grupo de expertos de alto nivel sobre inteligencia artificial
Esta documanto ha sido redactado por él Grupo de expertos de alto nival sobre inteligancia artificial (IA). Los
miembros del Grupo de expertos cltados en este documento respaidan el marco general para una IA flable
escrito en las presentes directrices, aunque no estén necesariamente de acuerdo con todas y cada una de las
afirmaciones que se realizan en ellas..
La lista para la evaluacién de Ia fiabilidad de la (A que se expone en el capitulo ill de este documento se
somatera a una fase de experimentacién con caracter piloto por las partes interesadas, a fin de recabar sus
opiniones practicas. A principios de 2020 se presentara a la Comision Europea una versién revisada de dicha
lista de evaluacion, teniendo en cuenta los comentarios recogidos durante la fase de experimentacion.
EI Grupo de expertas de alto nivel sobre IA es un grupo de expertos independientes constituide por la Comision Europea en
Junio de 2028.
Contacto Nathalie Smuhs - Coordinadora del Grupo de expertos de alt nivel sobre A
Correa electrénico CNECT-HLG-A1@ec auropa eu
Comisién Europea
B 1049 BRUSELAS
Documanco publica ae abr de 2018
£118 de diciembre de 2018 se publicé un primer borrador de este documento, que se someti6 a un proceso de consulta
abierta a través del cual se recogieron comentarios de més de 500 partcipantes. Los autores desean expresar su sincero
‘agradecimiento a todas las personas que realizaron aportaciones al primer borrador del documento; dichas aportaciones,
‘2 tuvieron on cuenta durante la elaboracion de esta version revicada.
Nila Comision Europea ni cualquier persona que actue en
‘Geis bs repr Sie Pace aes
toss ene deis fares Teweres tates
aatracin det fable ~ (> Aes y pean erase
St ease
“crane camplmiento es reqs ‘vabar y aborcar consiztemente esis “Gesten de la pracdacy de os datos
ane erwistos alo eign cela ae waa ge“ Tareparenco
en “The eine ed
“ton ett
2 «a “fens dees
Garatarla esiaenrcicade bs eqystescive —Atatarns a acacin especie aA
ustrocién 1: Las dvectices como marco pora una a fable31)
22)
33)
34)
35)
36)
Capitulo I: Fundamentos de una IA fiable
En este capitulo se sientan las bases de uns iA fable, basada en los derechos fundamentales y respaldada por
cuatro principios éticos que deben cumplirse para garantizar una IA ética y robusta. Este capitulo se centra en
el campo de la ética,
Le étics de la inteligencia artificial es un subcampo de Ia étics aplicada que estucia los problemas étices que
plantes el desarrollo, despliegue y utilizacién de le IA. Su preocupacién fundamental es identificer de qué
modo puede la [A mejorar o despertar inquietudes para Ia vida de las personas, ya sea en términos de calided
de vida o de la autonomia y [a libertad humanas necesarias para una socledad democrstica,
La reflexién ética sobre la tecnologia de la IA puede sorvir para multiples fines. En primer luger, puede
estimular le reflexién sobre la necesidad de proteger @ las personas y los grupos en él nivel més bésico. En
segundo lugar, ouede estimular nuevos tipos de innoveciones que busquen fomentar valores éticos, come
‘aquellas que contribuyen a lograr los Objetivos de Desarrolla Sostenible de las Naclones Unidas®, que se
encuentran firmemente Integradas en la préxima Agenda 2030 de la Ue™ Pese a que este documenta se
centra en el primaro de astos finas, no se debe subestimar la importancia que puede tener a ética en al
segundo de ellos. Una IA fiable puede mejorar el bienestar individual y el bienestar colective mediante la
generacién de prosperidad, la creacién de valor y Ia maximizacién de la riquezs. Puede contribuir a construir
una sociedad juste, eyudando 2 mejorar la salud y el bienestar de los cludadanos de maneras que promuevan
I igualdad en la distribucién de las oportunidades econémicas, sociales y paliticas..
Por lo tanto, es imprescindible que comprendamos cual as la mejor forma de apoyar el desarralio, despliague
¥y utilizacion de la IA, con objeto de garantizar que cualquier persona pueda prosperar en un mundo basado en
la inteligencie artificial, y crear un futuro mejor, manteniendo al mismo tiempo nuestra competitividad
scala mundial. Como sucede con cualquier tecnologia potente, el uso de sistemas de IA en nuestra sociedad
plantes diversos desafios éticos, relacionados, por ejemplo, con los efectos de
personas y la sociedad, las capacidades de adopcién de decisiones y la seguridad. Si se va a realizar un uso
reciente de los sistemas de Al o 2 delegar decisiones en allas, es nacesario que nas aseguremas d2 que dichos
sistemas afectan de un modo equitativo a la vida de las personas, que estdn en consonancia con los valores
que consideramos fundamentales y que son capaces de actuar en consecuancia, Para ello, nacasitamos contar
con pracesos de rendicién de cuentas adecuados.
12 tecnologia sobre las
Europa debe definir la vision normativa que desea perseguir sobre un futuro en el que la /A tenga un pape!
preponderante y, por tanto, entender qué cancepto de 1A dabe estudiarse, desarrollarse, desplegarse y
utiizarse en Europa para hacer realidad esa vision. Con aste documento, nuastra intencion es contriouir a este
cesfuerzo introduciendo el concepto de IA fiable, que craemos que es la forma adecuada de construir un futuro
con IA. Un futuro en el que la democracia, el estado de Derecho y los derechos fundamentales sustenten los
sistemas de 1A, y en el que dichos sistemas mejoren constantemente y defiendan |e cultura democrat
también haré posible un entorno en el que puedan prosperar la innovacién y la competitivided responsable.
Un codigo ético especitico de un ambito determinado —por muy coharantas y sofisticadas que puedan ser sus
futuras versiones— nunca puede sustituir al razonamiento ético, que debe ser sensible en todo momento 2
detalles contextuales que no es posible capturar en unas directrices generales. Para garantizar la fiabilided de
Ia IA 25 necesario, més alla de desarrollar un conjunto de normas, crear y mantener una cultura y una
mentalidad éticas a través del debate piiblica, la educacién y el aprendizaje préctico,
1. Los derechos fundamentales como derechos morales y lagales
btps://ee-2uropaeu/comirission/publctions/reflection-paper-towards sustainable europe 2030 es.
ces: /sstamaaieaevslonment un ora/?menue1200
un37) Creemas en un enfoque de la ética en la 1A basado en los derechos fundamentales consagrados en los
Tratados de la UE, la Carta de los Derachos Fundamentales de la Uniéa Europes (le wCarta de 'g UE>) y la
legislacién internacional de derechos humanos¥. El respete de los derechos fundementales, dentro de un
marco de democracia y estado de Derecho, proporcione la base més prometedore pare identiicar los
princpios y valores éticos abstractos que se pueden poner en préctica en el contesto dea A.
38) Los Tratados de la Union y Ia Carta de Ia UE prescriben una serie de derechos fundamentales que los Estados
miembros y las instituciones de la Unién Europes tienen la obligacién legal de respetar al aplicar la legislacién
de la UE, Dichos derechos se describen en la Carte de la UE mediante referencias a la dignidad, las licertades,
la igualdad y Ia solidaridad, los derechos de los ciudadanos y ls justicla. La base comin a todos estos derechos
puede considerarse arraigada en el respeto de la dignidad humana, reflejanda as lo que describimos como un
‘eenfoque centrado en la persona» en al que el ser humano dlsfruta da una condlcion moral nies ¢ inalienable
de primacia en las esfaras civil, politica, econémica y social”.
39) Pace a que los darachos racogidos an la Carta de la UE son Juridicamante vinculantes®*, es importante
reconocer que les derachos fundamentalas no slempre ofrecen una protaccidn Juridica Integral. en lo que
respecta a la Carta de la UE, por ejemplo, es importante subrayar que su ambito de aplicacign se limita a areas,
del Derecho de Ia UE. La lagislacién internacional de derechos humanos y, en particular, el Convenio Europeo
de Derechos Humanos son de abligado cumplimiento para los Estados miembros de le UE, incluso en campos
que quedan fuera del émbito de aplicacién del Derecho de le UE. Al mismo tiempo, es preciso destacar que los
derechos fundamentales también se atribuyen a personas fisicas y (en cierta medida) grupos en virtud de su
condicién moral como seres humanos, con Independencia de [a fuerza legal de dichos derechos. Entendidos
como derechos legalmente exigibles, los derechos fundamentalas forman parte, por tanto, del primer
componente de la IA flabla (la IA lcita), que garantiza el cumplimianto de la legislacién. Entendidos como
derechos de cualquier persone, arraigades en la condicién moral inherente a los seres humanos, también
sustentan el segundo componente de la IA fable [la IA ética), que se ocupa de las normas éticas que, pese ano
ser necesariamente juridicamente vinculantes, son cruciales para garantizar le flabilidad. Dado que este
documento no tiene e! objetivo de ofrecer orientacién sobre el primer componente, a efectos de estas
diractricas no vinculantes, las referencias a los derechos fundamentalas se antanderén hechas al segundo.
2. Delos derechos fundamentales a los principios éticos
21 Los derechos fundamentales como base para una IA fiable
40) Entre el ampli conjunto de derechos Indivisibles recagido en la legislacién Internacional de derechos
hhumanos, los Tratados de la UE y la Carta de la UE, las Familias siguientes de derechos fundamentales rasultan
particularmente aptas para cubrir los sistemas de IA. En determinadas circunstancias, muchos de esos
derechos son legalmente exigibles en la UE, por lo que son de obligado cumplimiento desde el punto de vista
legal. Pero, incluso una ver lograda la exigibilidad legal de los derechos fundamentales, la reflexién étics pued=
ayudarnos a comprender el mado en que el desarrollo, despliegue y utiizacin de la IA pueden afectar a los
derechos fundamentales y sus valores subyacentes, y de qué manera pueden contribuir 2 ofrecer
orlantacionas mas datalladas a la hora de tratar de Identificar aquello que debemas hacer en lugar de lo que
podemos hacer lactualmente) con Ia tecnologia,
% —LaUE se base en un compromso constitucionl de protege ls derechas fundamentals eincvisibies Ge los sereshuencs,
satanic oresoeto de estado de Derecno,fomenta a bert derocratcayeromover el bien coman, Tals darecnos estan refeiados en los
areuls 2 3 del Tratado de la Union Euronea asfcomo en la Ceta de los Derechos Furdamentales cela Unidn Euron
= Oror nctnenentos rics raljan estas meres campromizosy profundiaan en lls, como, gor seraplo, Cars Socal Europes
el Consejo de Europa 0 determinadas eyes coma el Raglamento General de Protecsign de Dates dela UE.
ce pracio sefelar que un compromizo cen ure IA cervads ena persona y con su ara en os derechos humanosrequete ures
fundamentessecilesyconsttuconales colectives en los quel ibertadinvidualy el respeto dela digridac humana sean tanto posiles en
prctica como sgnteatves, en uger Ge igicar una concepeicnindebidamence ndvdualste del er humana,
B= ervtusoe artcuie Si oe a Carta se plea alas nsulonesestades miembros Gla UE cuando 2p
21 Derecho 3 & Unc,
242)
42)
4)
a)
45)
Respeto de Ia dignidad humana. \a digridad humana contiene en si a idea de que todo ser humano posee un
«valor intrinseco> que jamas se debe menoscabar, poner en peligro ni ser abjato de represin por parte de
otros (ni de las nuevas tecnologias, como los sistemas de IA).** En ol contexto de Is inteligencia artificial, el
respeto de Is dignidad humana implica que todas las personas hen de ser tratadas con el debido respeto que
merecen como sujetos morales, y no como simples objetos que se pueden fitrer, ordenar, puntuar, dirigir,
condicionar o manipular. En consecuencia, los sistemas de IA deben desarrollarse de un modo que respete,
proteja y esté al servicio de la integridad fisica y mental de los seres humenos, el sentimiento de identided
personal y cultura y la satisfaccion de sus necesidades asenciales™.
Libertad individual. Los seres humanos deben ser libres para tomar decisiones vitales por si mismos. Esto
Implica libertad frente a intromisiones soberanas, pero también requiere la intervenciéa de organtzaciones
gubernamentales y no gudemamentales para garantizar que los individuas 0 las personas en rlasgo de
exclusion distruten de iguaidad de acceso a los baneficios las oportunidades que ofrece Ia IA. En el contexto
de la intaligencia artifical, la ioertad individual exige mitigar la coercién ilegitima (in}diracta, las amenazas a la
autonomia mental y la salud mental, [a vigilancia injustificada, el engafio y la manipulacién injusta. De hecho,
[a libertad individual entrafia un compromiso de permitir que los individuos ejerzan un control ain mayor
sobre su vide, incluidos (entre otros derechos) la proteccién de le libertad de empresa, la libertad de las artes y
de las clancias, la libertad de expresién, el derecho a la privacidad y la vida privada y [a libertad de reunion y
Respeto de la democracia, Ia justicia y el estado de Derecho. En les democracias constitucionales, todo poder
gubernamental debe estar autorizado legalmente y limitado por la legislacién. Los sistemas de lA deberian
servir para mantener @ impulsar procesos democraticos, asi como para respetar la pluralidad de valores y
eleccionas vitales de las personas. Los sistemas de IA no deben sovavar los procesos democraticos, las
deliaeraciones humanas ni los sistemas demacratices de votacién. Asimismo, los sistemas de 1A daban inclule
un compromiso de garantizar que su funcionamiento no menoscabe los compromisos asanclalas en los que se
fundamenta el estado de Derecho —asi como las leyes y reglamentos de obligado cumplimiento— y de
segurar el respeto de las garantias procesales y Ia igualdad ante la ley.
Igualdad, no alscriminacién y solidaridad, incluidos los derechos de las personas en riesgo de exclusisn. Es
preciso garantizar por igual el respato del valor moral y la dignidad da todos los seras humanos. este requisite
‘va mas alla de la no discriminaci6n, que tolera el establecimiento de distinciones entra situaciones diferentes
sobre la base de justificaciones objetivas. En el contexto de la IA, [a igualdad implica que el funcionamiento de
este tipo de sistemas no debe generar resultados injustamente sesgados (por ejemplo, los dates utlizados
para la formacién de los sistemas de IA deben ser lo més inclusivos posibles, de forma que estén
representados los diferentes grupos de poblacién). Esto tambign requiere un adecuado respeto de las
personas y grupos potencialmente vulnerables*, como los trabajadores, las mujeres, las personas con
discapacidad, las minarfas étnicas, los nlfias, los consumidores u otras personas en riesgo de exclusién.
Derechos de los ciudadanas. Los ciudadanos disfrutan de una amplia variedad de derechos, como el derecho
de voto, el derecho a una buena edministracién, el derecho de acceso a documentos publicos 0 é! derecho de
peticién e la administracién. Los sistemas de IA ofrecen un potencial muy importante para mejorar el alcance y
la eficiencia del goblerno en la prestacion de blenes y servicios piiblicos a la sociedad. Al mismo tiempo,
determinadas aplicaciones de la 1A también pueden afectar negativamante a los derechos de los cludadanas,
que deban protegerse. La utilizacion del término aderechos de los cludadanos» en el presente documento no
significa que se nieguen o ignoren los derechos de los nacionales de terceros paises o de las personas que se
. MeCrudsen, Human Dignity ond cil Interpretation of Human Rights, EL, (4, 2008
Fare comerender el concept de -cigrdad huranas ues en aste Gocumerto, véane © wlgendert, «Problem Areasin the Diy
Debate and the Ensemble Theory of Human Dignity en:D. Gren, A. Kemmerer, € Millers (eds), Haman Bignty in Context Explorations of a
Contested Cone. 2038.9 325 ys
{en elalosaro rude consutese una deserzcign dl termi tl como s iia 30 lrz0 de este documento,
B4s)
47)
48)
43)
encuentran en situacién Irregular (0 llagal) an Ia LE, que también tlenen derechos al amparo de la legisiacién
Internacional, incluso —por tanto— en el campo de la IA
2.2 Principios éticos en el contexto de los sistemas de IA
Muchas organlzaciones puiblicas, privadas y clviles s@ han Inspirado en las derechos fundamentales para
elaborar marcos éticos para la IA. En la UE, el Grupo europeo de ética de la cencia y de las nuevas
tecnologias propuso un conjunto de queve principios bésicas, apoyados en los velores fundamentales
recogidos en los Tratados de la UE y en Ia Carta de los Derechos Fundamentales de la Unién Europes™. Este
documento también se basa en ase trabajo, reconoclendo la mayorla de los principlos que propugnan los
diferentes grupos y, al misma tiempo, aclarando las fines que todas asos principlos tratan de allmentar y
respaldar. Estos principios éticos pueden inspirar instruments reglamentarios nuevos y especificos, contriouir
2 interpretar los derechos fundamentales a maida que vaya evolucionando nuestro entorno saciotacnico y
guiar la légica del desarrollo, utiizacion y aplicacién de los sistemas de lA, de forma que se adepten
dindmicamente conforme evolucione la propia sociedad.
Los sistemas de IA deberian mejorar a! blanestar Individual y colectivo. en asta seccién se enumeran cuatro
principios éticos, arraigados en los derechos fundamentales, que deben cumplirse para garantizar que los
sistemas de IA se deserrollen, desplieguen y utilicen de manera fiable. Se establece especificamente que se
trata de imperatives éticos que los profesionales de la 1A deben esforzarse en todo momento por observar.
Sin imponer una jerarquie entre ellos, los principios se enumeran a continuacién siguiendo el orden de
‘aparicién de los derechos fundamentales en los que se basan en la Carta de la Ui
Se trate de los principios de:
1) respeto de Ia autanom'a humana;
1) prevencion det dano:
Il) equidad;
\) — explicabilided
Muchos de ellos aparecen recogidos ya en gran medida en los requisites legales existentes de obligado
cumplimiento, por lo que antran dentro del mbito de la aiA licitay, a primer componente de Ia A fiable®. Sin
embargo, como se ha sefialado anteriormente, pese a que numerosas obligaciones legales reflejan principios
€ticos, el cumplimiento de estos ditimos trasclende el mero cumplimianto de las leyas existentes””.
El principio del rasoato dela sutonomia humana
Estes princiios se aplean también a desarrallo,despegue utizacén de otras teencloglas,porle que no so especies os
sSstemas de IA. Els piginas que siguen hemes pretercide establecer su pertrencis en un contexo especifcamente relacionade con
wi
Einacho da aasemosonlos derechos tunsamantalas 2yUCetamblan 2 imitartaInceridumarereglamntara, pues contamos can
cécades oe practic ans protacion da talotdarcchos an Iz UE que nes cecon candad egildséyprewsibldad
gs recertamente, grupe de rabelo Alf sopleha etusiade i mensioneces principe del Grupo euroace de ice dle ciency
elas nuevas teenoogisy otres teint y eis princoies étios propuestes hast la fecha, y los ha agltinado en cuatro pringpios
gencralesL Flori -Cowls tA Betvamett R Chala, P.Chazerend, V. Dignum, C. Lustge,R Madein, U.Pegalo, F. Ras 8 Schater,
.vacke, EM. Vayene (2018), "AlePacple ~An ethical =Yamework tora Goce Al Secety: Opportunies, RINKS, Principles. 2no
Becomimenastene, Mins an Machines 284) 68707
{ireeaate dels autanomia humana ats cetrechomerte relacianade con al derazho als signs y [alberta hurmanae(recogise en
losartcuice 1y $8 la Cart|. La revancn del cao eas Uertementevnculase «ie proteca de la ntagrias face o mentl
(Cefsiaca en elersculo 3) Le equidad ess estechamenteascciadaz los derechos le no cscfninacién, la soldeticedylajustcia
ecogidos en elariculo 21 y aulentes). La exoleablidad y ia resporsabildad estan relacionadas, a su vez con ies erethes
‘taramtes a usica (eteados en 01 rte 47).
Pignzae, por eempo, nl Reglmento General de Proteccén de Dates enles replmentoe dele UE en materia de pretecion de
los consumidores.
Fare obtener informacion actonal sobre este tema, consites, por elemplo, Lori «Sot Ethics anc the Governance of te
Digkals, entosopny& Tecmlogy mara Ge 2018, voumen 31," LBD. 2-8
40)
52)
32
)
)
Los derachas fundamentales en los que se apaya Ia UE van dirigidas a garantizar el raspato de la lbertad y la
‘utonomia de los seres humanos. Las parsonas que interactUen con sistemas de IA deben poder mantener una
‘autonomia plana y efectiva sobre si mismas y ser capaces de participar en al proceso democratico. Los
sistemas de IA no deberian sudordinar, coaccionar, engafiar, manipular, condicionar o dirigir a los seres
humanos de manera injustificada. En luger de ello, los sistemas de |A daberian disefiarse de forma que
aumenten, complementen y potencien las aptitudes cognitivas, sociales y culturales de las personas. Le
distrioucién de funciones entre los seres humanos y los sistemas de IA deberia seguir principios de disefio
centrados en las personas, y dejar amplias oportunidades para la eleccin humana, Esto implica garantizar la
supervisién® y al contral humanos sabre los procasas de trabajo de los sistemas de IA. Los sistemas de Ia
‘también puaden transtormar de un mado fundamental el mundo dal trabajo. Oeberian ayudar a las personas
en el entorno laboral y aspirar a crear empleos itiles.
Elprincipio de prevencién del datio.
los sistemas de IA no deberian provocar dafios (0 agrevar los existentes}* ni perjudicar de cualquier otro
mado a los seres humanos®. Esto conlleva la proteccién de la dignidad humana, asi como de la integrided
fisica y mental. Todas los sistemas y entornos da IA en los que operan estos deben ser seguros. Tamblén
debaran ser robustos desde el punto de vista técnico, y debara garantizarse que no puadan dastinarse a usos
malintencionados. Las personas vulnerables deberian recibir mayor atencién y participar en el desarralio y
despliegue de los sistemas de IA. Se deberd prestar también una atencién particular a las situaciones en las
que los sistemas de IA puedan provocar efectos adversos (o agravar los existentes) debido a asimetrias de
poder o de informacién, por ejemplo entre empresarios y trabajadores, entre empresas y consumidores ©
entre goblernos y cludadanos. La prevencién del dafto implica asimismo tener en cuenta el entorno natural y @
‘todos los sares vivas.
Elprincipio de equidad
EI desarrollo, despliegue y utlizacién de sistemas de IA debe ser equitativo. Pese a que reconocemos que
evisten muchas Interpretacionas diferentes de la equidad, creamos que esta tlene tanto una dimensién
sustantiva como procedimental. La dimansién sustantiva implica un compromiso de: garantizar una
distrioucion justa e igualitaria de los benaficios y costes, y asagurar que las personas y grupos no sufran sesgos
injustos, discriminacion ni estigmatizacion. Si se pueden evitar los sesgos injustos, los cistemas de IA podrian
incluso aumentar la equidad social. También se deberia fomentar la igualdad de oportunidades en términos de
acceso @ la educacién, los bienes los servicios y la tecnologia. Ademés, el uso de sistemas de IA no deberia
Cconducir Jamas @ que se engafle a los usuarlos (finales) ni se limite su libertad de elecclon, Asimismo, a
equidad implica que los profesionales de la 1A daberian respatar al principlo de proparcionalidad entre adios
Y fines, y estudiar cuidadosamente como alcanzar un equilibrio entre los diferentes intereses y abjetivos
contrapuestos™, La dimension procedimental de ls equidad conlleva la capacidad de oponerse a las decisiones
adoptadas por los sistemas de IA y por las personas que los manejan, asi como de tratar de obtener
El concepto de superisisn humana se dasarralla en el punto 65
Losaatos ausden serindiveuice ¢colstvee,¢incuirdafe insangibes 3 ntorne soi, elturalypaltee.
Esto trnbin barca elmode de vies Ge los incvics y grupos sociales, evitanco cause, por ejempl,dafios clturales,
sto guar relacen cone nce de proporcionaldad [reelado en la ménima de eno matar moscas a caPionazos) Las mecidas
adoncacas rar ogra un fn (por elemplo, as medicas Ge acraccon Ge datbs que se nteduacan gare que la 1A Cuma su Tuncion de
‘Sptmaciin dcberaninitarse lar eevietanartanoseearias fete implies Scere Quo, cuanda vanas masidas compan pra
conecucién de un odjetva, deberts dese provdad aequala que mens perjuciqu los derechos fundementalsy ls normas tess
(Ger empl, ls dsarreladares de A deteran prefer en tedo momente dstesprepore.enados pore sector publea frente aloe
(tos personales), También abe hace referencia la proporcionaliad entre el usuario yl responsable de! desplegue, tentndo en
‘cuenta bo una part, 1s derechos de as empresas (hci ia propiedad intelectual la convidencalcad) , por ove os derechos
‘eo usvares53)
52)
compensaciones adecuadas frente a allas*. Con este fin, se dabe poder identificar a la entidad responsable de
la decision y axplicar los procesos de adopcion de dacisionas,
ELprincipio de exolicabiidad
La explicabilidad es crucial para conseguir que los usuarios contion en los sistemas de \A y para mantaner dicha
confianza, Esto significa que los procesos han de ser transparentes, que es praciso comunicar abiartamente las
cepacidades y Ia finalidad de los sistemas de IA y que las decisiones deben pode explicerse —en ls medida de
lo posible~ a las partes que se vean afectadas por ellas de manera cirecta o indirecta. Sin esta informacion,
no es posible impugnar adecuadamente una decisién, No siempre resulta posible explicer por qué un modelo
hha generado un resultado 0 una dacision particular (ni qué combinact6n de factores contribuyeron a ello). ES0s
casos, que se denominan algaritmas de «caja negra», requieren espacial atencidn. en tales clrcunstanclas,
puade ser necesario adoptar otras medidas relacionadas con la explicabilidad (por ejamplo, la trazabilidad, la
uditabilidad y Ia comunicacion transparente sobre las prestaciones de! sistema), siempre y cuando el sistema
fen su conjunto respete los derechos fundamentales. El grado de necesidad de explicabilidad depends en gran
medide del contexto y la gravedad de las consecuencias derivadas de un resultado errénec o inadecuado™,
2.3 Tensiones entre los diferentes pri
abe Ia posiblidad de que surjan tenslones entre las principlcs anterloras, y no existe una solucién establecida
para rasolverlas, En consonancia con el compramiso fundamental de la UE con la participacion damocratica, al
respeto de las garantias procesales y la participacion ablerta en la esfora politica, deberian establecerse
métodos que posibiliten un debate responsable sobre dichas tensiones. A modo de ejemplo, los princigios de
prevencién del daiio y de autonomia humana pueden entrar en conflicto en diversos ambitos. Considérese 2!
ejemplo de la utiizacién de sistemas de IA para la cactuacién policial predictivan, que puede ayudar @ reducir
la delincuencia, pero de formas que incluyan actividades de vigilancia que vulneren la libertad y la privacidad
Individuales. Ademds, los beneficios giobales de los sistemas de 1A deberian ser sustanclalmente superlores 2
los riasgos individuales previsibles. Pese a que estos principios ofracen certamente una orientacién para la
biisqueda de soluciones, no dejan de ser prescripciones éticas abstractas. Por lo tanta, no se debe esperar que
los profesionales de la IA encuentren la solucién adecuade baséndose en los principios anteriores; no
obstante, deberdn afrontar los dllemas éticos y analizar las ventajas e inconvenlentas a través de un proceso
de reflexion razonada con base empirica, en lugar de gularse por Ia Intulclén o par criterlos aleatarios. Pasa a
‘todo, pueden axistir s'tuaciones en las que no sea posible identificar compensaciones aceptables desde 2!
punto de vista ético, Determinados derechos fundamentals y principies correlacionados son de caracter
absoluto y no pueden ser objeto de un ejercicio de busqueda de equilibrio (es el caso, por ejemplo, de le
dignidad humane).
Incluse meefort leericio de u dereshe de aecicién yd efliactin aun sinsicato en un encom labora, segin o puesto ene
rule 22 oe la Cartage les Dareches Fundarrentales dela Unén Curonee
Por ejemplo, un stera de A que genere unas recomendacones de compra poco acertades ro despertaré excesivas preccupaciones
‘esde © punto de vista co a ifarerca de os sstemas de 1A que evallan se debera concader la iberad consconal aura
persona candenad2 or un dito pera
1655)
56)
57)
Jorientaciones clave derivadas del capitulo Iz
Y Desartollar, desolegar y utilizar los sistemas de IA respetando les principios éticos de: respeto de lo
‘utonomia humana, prevencién del dafo, equidad y explicabridad. Reconacer y abordar las tensiones que
puedan surgir entre astos principlos,
Y _ Prestar una atencisn especial a las situaciones que afecten a los grupos més vulnerables, come los nifios,
las personas con discapacidad y otras colectivos que s= hayan visto histéricamente desfavorecidos © que
se encuentren en riesgo de exclusién o en situaciones caracterizadas por asimetrias de poder o de
Jnformacién, como [as que pueden producirse entre empresarios y trabajadores 0 entre empresas y
consumidores*.
/~ Reconocer y tener presente que, p=se a que pueden aportar numerosos y sustanciales beneficios a las
personas y a la sociedad, algunas aplicaciones de \A también puaden tenar efectos nagatives, algunos de
los cuales pueden resultar dificles de prever, identificar o medir (por ejemplo, sobre la democracia, al
estado de Derecho y la justicia distrbutiva, 0 sobre la propia mente humana). Adoptar medidas
adecuadas para mitigar estos riesgos cuando proceds; dichas medidas debergn ser proporcionales a le
magnitud del riesgo.
Capitulo Il: Realizacién de la 1A fiable
Este capitulo ofrece orientaciones de cara a la materializacién y el logro de una |A flable a través de une liste
de siete requisitos que se deberfan cumplir, basados en los princlpios establecidos en el capitulo |, Ademés, se
presenta una serie de métodos técnicas y no técnicos actualmente disponibles para garantizar el
Cumplimianto de dichos requlsitos alo largo da todo el ciclo de vids de los sistemas de IA,
4. Requisitos de una 1A fiable
Los principios expuestos en el capitulo I deben traducirse en requis
flable. Dichos requisitos son aplicables a las diferentes partes interesadas que participan en algiin momento
del ciclo de vida de los sistemas da IA: desarralladares, responsables del daspllegue y usuarios finales, asi
como a la sociedad en su conjunto. Con al término edesarrolladores» nos refarimos a las personas dadicadas 2
la investigacién, el disefo 0 el desarrollo de sistemas de IA. Por erasponsables del despliqgue» entendemos las
corganizaciones pablicas 0 privadas que utiizen sistemas de IA en sus procesos internos y para ofrecer
productos y servicios a otros agentes. Los «usuarios finales» son aquellos que interactiian con el sistema de IA,
ya sea de forma directa o Indirecta, Por ditimo, la «sociedad en su conjunto» engloba el resto de agentes,
personas y entidades afectadas de manera diracta o indirecta por los sistemas de 1A,
tos concretos para hacer realidad una lA
Las diferentes clases de partes interesadas tienen diversos papeles que desempefiar para gara
cumplimiento de los reauisitos:
2. las dasarrolladores deben Introduciry aplicar los requistos de los procesas de dlseho y desarrollo;
los rasponsables del daspliague deben asegurarse de que los sistemas que utilizan y los productos y
servicios que ofrecen curplen los requisites establecidos;
los usuarios finales y la sociedad en su conjunto deben permanecer informados sobre dichas requisites
vy tener la capacidad de pedir que se cumplan.
\Veanae lcs ertlulos 24827 de a Cart dela UE, que trata ste los derechos Ge lus ifs de las pers mayore, le integracin
ce as personas con dstepacad y los derechos dos rabajadores. Veasetambiane articulo 38 relatvo a le proteccin de los
consumicerss
v758) Acontinuacion se ofrace una lista no exhaustiva da los requisitos™. Incluye aspectos sist@mices, individuales y
sociales:
1 Acci6n y supervisién humanas
Incluidos les derechos fundamentales, lo accién humano y la supervisién humana.
2. Solider técnica y seguridad
Incluida la copacided de resistencia a los otagues y la seguridad, un plan de repliegue y !a seguridad
general, precision, fiabilidad y reproducibilidad.
2. Gestién de la privacidad y de los datos
Incivido el respeto de lo priveciiad, la colidad y la integriad de los datos, asi como el acceso a estos.
4 Transparencia
Incluidas la trazabilidad, la explicabilidad y la comunicacién.
5. Diversidad, no disctiminacién y equidad
Incluida Jo ausencia de sesges injustos, fa accesibiliad y e! diselio universal, ast como lo particlpacién de
los portes interesodas.
© Blenestar social y ambiental
Incluida ia sostenibilidad y el respeto del medio ambiente, el impacto social, la sociedad y la democracia.
7 Rendicién de cuentas
Inciuidas lo auditabilidad, la minimizacién de efectos negativos y la norificactén de estas, ia busqueda de
‘equilibries y las compensociones.
\W G@ “
SZ
Gestén dela
privacidad y
slustracién 2: nterrelaccnes existentes entre los siete requistas: teces tienen idéntca lmpartancia, se apayan entre si
Sin imponer una jeraraua entre ellos ls principio se enumeran a cortnuacisn sguiende elrden de aparicion de los rinciies
‘erechos con tos ave estan reacionados na Carta 21a UE
259)
60)
62)
62)
3)
6)
vy deberian cumplise y eveluarse a lo large de todo el ciclo de vido de un ssterna de 4
Pese a que todos los requisitos tlenen la misma importancia, serd necesario tener en cuenta el contexto y las
tensiones que pueden surgir entre ellos a la hora de aplicarios en diferentes dmbitos y sectoras. Estos
requisitos deberfan satistacerse a lo largo de todo al ciclo de vida de un sistema de |A, un cumplimiente que
depande de la aplicacion espacifica del sistema, Pese 2 que la mayoria de ellos son aplicables a todos los
sistemas de IA, se prasta una atencién espacial alos que afactan de manera directa o indirecta a las personas,
Por lo tanto, su pertinencia puede ser menor en el caso de determinadas aplicaciones (en entornas
industrieles, por ejemplo).
Los requisites anterlores Incluyen elementos que, en algunos casos, ya figuran reflajados en las leyes
existentes. Relteramos que —an consonancia con el primer componente de la IA— los desarrolladores y
responsables del despliegue de sistemas de |A tienen el deber de garantizar que dichos sistemas cumplan las
obligaciones legales vigentes, tanto en lo que respects a las normas de aplicacién horizontal como a la
normativa de cardcter sectorial.
En los parrafos que siguan se analiza con datalle cada uno de los requisitos.
‘Acci6n y supervision humanas
Los sistemas de A deberian respalder la autonom’a y Ia toma de decisiones de les persons, tal como
prescribe el principio del respeto de la autonomfa humana. Esto requiere qué los sistemas de 1A acten tanto
como faclitadores de una sociedad democritica, préspera y equitativa, apoyando Ia accion humana y
promoviendo los derechos fundamentales, ademas de permitir la supervision humana,
Derechos fundamentales. Al igual que muchas ctras tecnologias, los sistemas de IA oueden tanto favorecer los
derechos fundamentales como abstaculizarlos. Estos sistemas pueden ser beneficiosos pare las persons, por
ejemplo ayudéndolas a llevar a catio un seguimiento de sus datos personales o mejorando la accesibiidad de
la educacién, facilitanda asf el ejerciclo del derecho a la educacidn. Sin embargo, dado el alcance y la
capacidad de los sistemas de IA, también pueden afectar negativamente a los derechos fundamentales. En
situaciones en las que existan riasgos de este tipo, deberd llevarse a cabo una evaluacién del impacto sobre los
derechos fundementales. Esta eveluaci6n deberia llevarse a cabo antes del desarrollo de los sistemas de lA en
n de las posibilidades de reducir dichos riesgus o de justificar estos como.
necesarios en una sociedad democrética para respetar los derechos y libertades de otras personas. Ademds,
debarian crearse macanismos que permitan conacer las opiniones externas sobre los sistemas de 1A que
pueden vulnerar los derachas fundamentales.
cuestién e incluir una evaluat
Accién humana, Los usuarios deberian ser capaces de tomar decisiones auténomas con conccimiento de
cause en relacién con los sistemas de IA. Se les deberian proporcionar los conocimientos y herremientas
necesarios para comprender los sistemas de Id e interactuar con ellos de manera setisfactoria y, siempre que
resulte posible, permitirseles evaluar por sf mismos o cuestionar el sistema, Los sistemas de 1A deberian
ayudar 2 as parsonas 2 tomar majores decisiones y can mayor conacimlenta de causa de conformidad con sus
objetivos. En ocasiones se pueden dasplegar sistemas de IA con el objetivo de condicionar e influir en al
comportamiento humano a través de mecanismos que pueden ser diffcles de detectar, dado que puaden
explotar procesos del subconsciente mediante diversas formas de manipulacién injusta, engafo, direccién y
condicionamiento, todas las cuales pueden sugoner una amenaza pars la eutonomia individual. El principio
general de autonomfs del usuario debe ocupar un lugar central en le funcionalided del sistema. La clave pare
ello es el deracho a no ser sometida a una decisiin asada exclusivamente en pracesos autamatlzados cuando
‘tal dacislon produaca efectos juridicos sobre los usuarios o les afacte de forma significativa por motives65)
66)
67)
Supervisién humana. La supervisién humana ayuda a garantizar que un sistema de IA no socave la autonomia
humana 0 provoque otros efectos adversos. La supervision se puede llevar a cabo a través de mecanismos de
godernanza, tales como los enfoques de participacién humana, control humano a mando human. La
participacion humana hace referancia 2 la capacidad de que inte-vangan seres humanos en todos los ciclos de
decision del sistema, algo que en muchos casos no es posible ni deseable. E! control humano se rafiere a la
capacidad de que intervengan seres humanos durante el ciclo de disefio del sistema y en el seguimiento de su
funcionamiento, Par iltimo, el mando humano es la capacidad de supervisar Ia actividad global del sistema de
1A (incluidos, desde un punto de vista més amplio, sus efectos econdmicos, sociales, juridicos y éticos), asi
como la capacidad de decidir cémo y cudndo utilizar el sistama en una situaclin detarminada. Esto puade
Inclulr la decisién de no utilizar un sistema de 1A an una situaclén particular, establecer niveles de
discrecionalidad humana durante al uso dal sistema 0 garantizar la posibilidad de ignorar una decision
adoptada por un sistema. Ademds, se debe garantizar que los resporsables publicos puedan ejercer Ia
supervisién en consonancia con sus respectives mandatos. Puede ser nacesario introducir mecanismes de
supervision en diferentes grados para respelder otras medides de segurided y control, dependiendo del
4mbito de aplicacién y el riesgo potencial del sistema de IA. Si el resto de las circunstancias no cambian,
‘cuanto menor sea el nivel de supervisién que pueda ejercer una persona sobre un sistema de IA, mayores y
ms exigentes sera las verificaciones y la gabarnanza nacesarias,
Solider técnica y seguridad
Un componente crucial de Ia 1A fiable es la solider técnica, que esté estrechamente vinculada al princiove de
prevencién del dofio. La solidez técnica requiere que los sistemas de (A se desarvollen con un enfogue
preventivo en relacién can los riesgos, de modo que se comporten siempre segtn lo esperado y minimicen los
anos Involuntarios @ Imprevistas, evitando asimismo causar dafos Inaceptables. Lo anterior deberia aplicarse
‘también a los cambios potencialas en su entorno operative o a la presencia de otros agentes (humanos y
artifciales) que puedan interactuar con al sistema de manera contenciosa. Ademds, dedaria garantizarse la
integridad fisica y mental de los seres humanos.
Resistencia a los ataques y seguridad. Los sistemas de 1A, como todos Jos sistemas de software, daben
protegerse frente a las vulnerabilidadas que puedan permitir su explotacién por parte de agentes
malintencionados, como, por ejemplo, los pirstas Informétlcas. Los ataques pusden Ir dirgides contra los
datos (envenenamiento de los datos), el modelo fallo del mods!o) o Ia infraestructura informatica
subyacente, tanto el software como el hardware. En el caso de que un sistema de IA sea objeto de un atzque,
por ejemplo por parte de agentes malintencionades, se podrian alterar los datos y el comportamiento del
sistema, de modo que este adopte decisiones diferentes o, sencillamente, se desconecte. Los sistemas y los
datos también pueden corromperse debido @ intenciones malicioses 0 por verse expuestos @ sitvaciones
Inesperadas. Unos procesos de seguridad insuficientes también pueden dar lugar a decisiones erréneas 0
incluso a dafios fisicos. Para que los sistemas de IA se consideren seguros,”” es praciso tener en cuenta las
posibles aplicaciones imprevistas de a 1A (aplicaciones que puedsn utlizarse para fines diferentes, por
ejemplo} asi como el abuso potencial de un sistema de IA por parte de agentes malintencionados; también se
deberén adoptar medidas pare prevenir y mitigar es0s
abe hacer referereiaalarculo 22 del SPD, onal que ya est recogido este derecho.
eance, pr ejemplos cansedarzconas racagias ah 2 purto 27 dal plan cooraineéo de
orci
Eh loque rexpecte ale seguridad de los sistemas de A, puede reslterimarescralle tener la cageldas de crear un leulevinuose
nel bio de a rvestigacgn yel Gesarolo entela comprensén dees ataques desarrollo de medics de proteccién adecuades
Yla melota de as metadoicgis de evalcion Para eo, se Geberapromever a convergenca entre la comunisad dadkade ala Ala
Comunidze expeciaeda en segLncad. Asamas, todos ls agentes Invlucrados anon la esponstlldao de crear norms camunes
Ini Europes sabre la intaigerca
2063)
6)
70)
7)
m2)
Plan de repliegue y seguridad general. Los sistemas de ia deberian contar con salvaguardias que posibilten
un plan de repliegue en el caso de que surjan problemas. Esto ouede significar que los sistemas de IA pasen de
un procedimiento basado en estadisticas a otro basado en normas, o que soliciten la intervencién de un
‘operador humano antes de proseguir con sus actuaciones.* Es preciso gerantizar que el sistema se
comportaré de acuerdo con /o que se espera de él sin causer dafios a los seres vivos nial medio ambiente. Esto
incluye la minimizacién de las consecuencias y errores imprevistos. Ademés, se deberian establecer procesos
dirigidos a aclarar y evaluar los posibles riesgos asoclados con el uso de sistemas de A en los diversos émbitos
de aplicacion, EI nivel de las medidas de seguridad requerldas depende de la magnitud del rlesgo que plantee
un sistema de IA, que a su ver depende de las capacidadas del sistema. Cuando se pravea que al proceso de
desarrcllo 0 al propio sistema plantaara riesgos particularmante altos, es crucial desarrollar y probar medidas
de seguridad de forma proactiva.
Precisién, La precisién estd relacionads con la capacidad de un sistema de (A para realizar juiclos correctos —
como, par ejemplo, clasificar carrectamente Informacion en las categorias adecuadas—, 0 con su capacidad
para efectuar predicciones, formular racomendaciones 0 tomar dacisionas correctas basandose en datos 0
modelos. Un proceso de desarrollo y evaluacién explicito y correctamente diseflado puade respaldar, mitigar y
corregir los riesgos imprevistos asaciados a pradicciones incorrectas. Cuando no sea posible evitar este tipo de
predicciones, es importante que el sistema pueda indicar la probabilidad de que se produzcan esos errores. Un
alto nivel de precisin resulta particularmente crucial en situaciones en que un sistema de IA afecte de manera
directa ala vida humana.
Fiabilidad y reproducibilidad. Es esencial que los resultados de los sistemas de IA sean reproducibles, ademas
de fiables. Un sistema de IA fiable es aquel que funciona adecuadamente con un conjunto de informacion y en
diversas situaciones. Esto es necesario para evaluar un sistema de IA y evitar que provogue dafios
involuntaries. La reproducibilidad describe si un experimento con IA musstra el mismo comoortamiento
cuando se repite varias veces en las mismas condiciones. Esto permite a los cientificos y responsables politicos
escribir con exactitud lo que hacen los sistemas de IA. Los archivos de replicacién®? pueden facilitar el
proceso de ansayo y repraduccldn de compartamlentas
Gestion de Ia privacidad y de los datos
Ls privacidad es un derecho fundamental que se ve esvecislmente afectado por los sistemas d= JA, y que
guarda una estrecha relacién con el principfo de prevencién del dafio, La prevencién del dato la privacidad
también requiere una adacuada gestién de los datos, que abarque [a calidad y la integridad de los datos
utllzados, su partinencla an contrast can el dmlto en el qua s2 desplagaran los sistemas de 1A, sus
protocolos de acceso y la capacidad para procesar datos sin vulnerar la privacidad,
Proteccién de la intimidad y de los dates. Los sistemas de 1A deben garantizar le proteccién de la intimidad y
de los datos a lo largo de todo el ciclo da vida da un sistama", esto Incluye la Informacién Iniclalmente
faciitada por el usuario, si como Ia informacién generada sobre el usuario en el contaxto de su interaccién
con el sistema (por ejemplo, los productos que genere el sistema de Al para determinados usuarios 0 la
respueste de estos a determinadas recomendaciones). Los registros digitles del comportamiento humano
pueden posibiltar que los sistemas de IA no solo infieran las preferencies de las personas, sino también su
orientacion sexual, edad, género u opiniones palticas y religlosas. Para permitir que los indviduos confien en
cen mater Ge segura y proteccicn tanstrontatizas,as'como de establecer un entorno deconftanza mutua@mpulsr ia
(aboracioninternacoral. Sobre as poses meridas,vease Molcious Use orl (avin Brundage Mea, 2038)
Tamrban sa dcbardn etular los posible escanaris a os qua Po seria posble cantar con ntarvencion humana de marera
inmate
[ste trmine se refere alos archives que repicarin cade paso del proceso de dsarclo de un sistema del, desde la investigaciény
1a recog inal de datos hast os resuados
CCabehacerreferenca als eyes exstantas en materia de proceccion de privacidad, como RGED ol prOdine Reslamento soe
ta prvacdao y as comunicecloneselecranicas,
a73)
74)
75)
76)
™
78)
fl procasa de racapliacién de datas, 2s pracisa garantizar que la Informacién recapada sobre ellos no se
utlizara para diseriminarlos de forma injusta o ilegal
Calidad © integridad de os datos. La calidad de los conjuntos de datos utlizados es primordial para el
desempeiio de los sistemas de 1A. Cuando se recopilan datos, estos pueden contener sesgos sociales,
Imprecisiones y errores. Este problema debe abordarse antes de llevar a cabo cualaquler tipo de formacién en
la que se utlice cualquier conjunto de datas. Adamas, es nacecarlo garantizar la Integridad de los datas. La
Introduccion de datos malintencionades en un sistema de IA puede alterar su comportamianto, sobre todo si
se trata de sistemas con capacidad de autoaprencizaje. Los procesos y conjuntos de datos utiizados decen
ponerse @ prueba y documentarse en cada paso, por ejemplo, en la planificacién, formacion, verificacién y
despliegue. Esto deberia aplicarse igualmente a los sistemas de IA que no hayan sido desarrollados
internamente, sino adquiridos externament=,
‘Acceso a los datos. En cualquier organizacion que mangje datos personales (con Independencia de si alguien
es usuario del sistema o no) deberian establecerse protocols que rijan al acceso a los datos. En esos
protocolos deberia describirse quién puede acceder a los datos y en qué circunstancias, Solamente deberia
permitirse acceder a los datos personales 3 o2rsonal debidemente cualificado, poseedor de les competencias
adecuadas y que necesite acceder a la informacién pertinente.
‘Transparencia
Este requisito guarda una relacion estracha con el principio de explicabiliaad e Incluye la transparancia de los
elementos pertinantas para un sistema de IA: os datos, el sistema y los modelos de negoclo.
Trazabilidad. Los conjuntos de datos y los procesos que dan lugar a la decisidn da! sistema de IA, incluidos los
relatives 2 la recopilacién y etiquetado de los datos asi como a los algoritmos utllzedos, deberian
documentarse con arreglo a la norma mas rigurosa posible con el fin de postbiltar la trazabilidad y aumentar
la transparencia. esto también es aplicable 2 las dacisiones que adopte al sistema de IA. esto permitica
Identificar los motives de una dacision erronea por parte dal sistema, lo que a su ve2 podria ayudar a prevanir
futuros errores, La trazabilidad, por tanto, facilita la auditabilidad y la explicabiligad.
Explicabilidad. (2 explicabilidad concierne a |e capacidad de explicar tanto los procesos técnicos de un sistema
de 1A como las decisiones humanas asocladas (por ejemplo, las 4reas de aplicacion de un sistema de 1A). La
explicabilidad técnica cequiere que las decisionas que adopte un sistema de IA sean comprensibles para los
seres humanos y estos tengan la posibilidad de rastrearlas. Ademds, puade que sea nacesarlo buscar un
equilibrio entre la mejora de la explicabilidad de un sistema (que puede reducir su pracision) 0 una mayor
precision de este (a costa de la explicabilidad). Cuando un sistema de IA tenga un impacto significative en la
vida de las personas, deberia ser posible reclamar una explicacién adecuads de! proceso de toma de
decisiones del sistema de IA. Dicha explicacién deberia ser oportuna y adaptarse el nivel de especializacién de
Ja parte Interesada (que puede ser una persona no experta en la materia, un regulador 0 un investigador).
‘Adams, deberla ser posible dlsponar de explicaciones sobre |a madida en que el sistema de IA condiciana €
influye en el proceso de toma de dacisiones de la organizacién, sobre las dacisionas de disefo del sistema y
sobre la logica subyacente a su dospliegue (garantizando asi Ia transparencia dal modelo de negocio).
Comunicacién. Los sistemas de lA no deberian presentarse a si mismos como humanos ante los usuatios; las
personas tienen derecho a saber que estn interactuando con un sistema de |A. Por Io tanto, os sistemas de 1A
deban ser identificablas como tales. Adamas, cuando sea nacesarlo, se daberia afracer al usuarlo la posibilidad
de dacidir si prefiere Interactuar con un sistema de 1A 0 con otra persona, con el fin de garantizar al
cumplimiento de los derechos fundamentales. Mac alld de lo expuosto, se daberia informar sobre las
capacidades y imitaciones del sistema de IA a los profesionales o usuarios finales; dicha informacion deberia
proporcicnarse de un mado adacusde segtin el caso de uso de que se trate y deberis incluir informacién
cerca del nivel de precisién del sistema de IA, asi como de sus limitaciones.
279)
80)
83)
32)
Para hacer realidad la IA fiable, as preciso garantizar la inclusion y la diversidad a lo largo de todo el ciclo de
vida de los sistemas de inteligencia artifical. Ademas de tener en cuenta a todos los afectados y garantizar su
participacion en todo el proceso, también es necesario garantizar la igualdad de acceso mediante procesos de
disefio inclusivos, sin olvidar le igualdad de trato. Este requisito esté estrechamente relacionado con el
principio de equidod.
Necesidad de evitar sesgos injustos. Los conjuntos de datos qua utilizar les sistemas de IA (tanto con fines de
formacién como para su funcionamiento) pueden presantar sesgos histéricos inadvertidos,lagunas o modelos
de gestisn incorrectos. £1 mantenimiento de dichos sesgos podria dar lugar a prejucios y discriminacién*®
(in}directose involuntarios contra determinados grupos o personas, lo que podria agravar los estereotipos y la
marginacién. La explotacién Intencionada de los sesgos (de los consumidores) 0 la competencia desleal
‘también pueden provocar situacions parjudiciales, como la hamogenalzacién de los precios madlante la
colusion 0 Ia falta de transparancia dal mercado." Siempre que sea posible, los sesgos idantificables y
discriminatorios daberian eliminarsa en la fase de recopilacién de la informacién. Los propias métsdos de
desarrollo de los sistemas de IA (por ejemplo, la programacién de slgoritmas) también pueden presentar
sesgos injustos. Esto se puede combatir mediante procesos de supervision que permitan analizar y abordar el
propésto, las restricciones, los requisites y las decsiones del sistema de un modo claro y transparente
Ademas, la contratacién de personas procedentes de diversos contextos, culturas y cisciplinas puede
garantizar a diversidad de opiniones y deberta fomentarse.
Accesibilidad y disefo universal. En el imbito espacitico de las relaciones entre empresas y consumidores, los
sistemas deberian estar centrados en el usuario disefarse de un modo que permitan que todas las personas
utilicen los productos servicios de IA con independencia de su edad, género, cepacidades o ceracteristicas. Le
accesiilidad de esta tecnologia para les personas con discapacidad, que estén presentes en todos los grupos
sociales, reviste una importancia particular. Los sistemas de IA daben sar adaptables y taner en cuenta los
principios del Disefio Universal“ para servir al mayor nimero posible de usuarios, observando las normas de
accesibilidad pertinentes. Esto permitiré un acceso equitativo y una participacién active de todas las
personas en las actividades humanas informatizedas existentes y emergentes, asi como en lo que atafie las
‘tecrologias asistenciales."*
Participacion de las partes interesadas. Con el fin de desarrollar clstemas de 1A flables, es recomendable
consultar 2 las partas interasadas qua se pueden ver afactadas de manera directa o indiracta por al sistema a
lo large de todo su ciclo de vida. Conviane padir opiniones periédicamente incluso después del dasolicgue de
los sistemas de IA y establecer mecanismos para la participacién de las partes interesadas = largo plazo, por
ejemplo gerentizando la informacién, consulta y participacién de los trabajadares a lo largo de todo el proceso
deimplantacién de este tipo de sistemas en las organizaciones.
Bienestar social y ambiental
Puede concultarse una doiniign de deriminacién directa cindiect, por clmplo, ancl artful 2 dela iret 2000/79/CE da
Conse. de 27 de noviembre de 2000, relative! estblecimianto de un marco gener! pave a iualied de veto en elempleeyle
‘ccuoaton. Vease tambien el riculo 21 ea Cara de es Derechos Fundamentals dla UE
‘ease anialo publcado por le Agencia dees Derechos Fundamentals de a Lion Eurcpe
BigDats: Dscrminction i cats-tupportad dacision mating (2018)> itera europa su/en/pubictin/ 2018 /oi-data-
iverminaton.
Elarfel 42 de la Directive sobre contratecién bea enige que las expecticecionesterics tngan en cuenta la acesbidady
isefio para todas as personas.
Por ejempi, nora EN 301 548
Ese recuisto est elacionado con Convencion ae as Nacones Unidas sede os Derachas oe as Parsenas con Discapacisad
233)
84)
85)
86)
87)
88)
a)
En consanancia can las principlas de equidad y prevencidn del dafo, se deberia tener en cuenta tamblén 2 Ia
sociedad en su conjunto, al resto de seres sensibias y al madio ambianta como partas intarasadas 2 lo largo de
todo e! ciclo de vida de la IA. Se deberia fomentar la costenibilidad y la responsabilidad ecolégica de los
sistemas de IA, asi como impulsar la investigacién de soluciones de inteligencia artificial pera hacer frente a los
‘temas que suscitan preocupacién a escala mundial, como los Objetivos de Deserrollo Sostenible. Lo ideal es
que Ia IA se utilice en beneficio de todos los seres humanos, incluidas las generaciones futures.
Una 1A sostenible y respetuosa con el medio ambiente. Los sistamas de inteligencia artificial prometen ayudar
‘8 abordar algunas de las preacupaciones sociales mas urgentas; no obstante, se dabe garantizar que lo hagan
del modo mas respatuoso posible con a! medio ambiente. En ese sentido, daberia evaluarse en su integrided
el proceso de desarralio, despliague y utilizacién de sistemas de IA, asi como toda su cadena de suministro, 2
‘través, por ejemplo, de un examen critico del uso de los recursos y del consumo de energla durante le
formacién, dando prioridad a las opciones menos perjudiciales. Se deberfan promover medidas que garanticen
el respeto del medio amblente par parte de tedos los aslabones de la cadena de suministra,
Impacto social. La exposicién ubicus a los sistemas sociales de IA® en todas las esferas de nuestra vids (sea en
mbitos come la educacién, el trabajo, el cuidado o el entretenimiento) oueden alterar nuestra concepcién de
la accign social o afectar a nuestras relaciones y vinculos sociales. Aungue [os sistemas de IA se pueden utilizar
para mejorar las competenclas sociales, también pued2n contribuir a su deterloro, Esto puede afectar al
blenestar fisico y mental de las personas. Por lo tanto, sera nacesario tener en cuenta y llevar a cabo un
seguimiento exhaustivo de los efactos de esos sistemas,
Sociedad y democracia, Ademas de evaluar el impacto que ejerce el desarrollo, desoliegue y utilizacién de un
sistema de IA sobre las personas, se deberian evaluar también sus repercusiones desde la perspectiva social,
teniendo en cuenta sus efectos sobre las instituciones, la democracla y la sociedad en su conjunto, El uso de
sistemas de A deberia cer objeto de un estudio pormenarizada, sobre todo en situaciones relacionadas con |
proceso demacratico, no solo en el terrano de la adopcién de dacisiones paliticas sino también en contextos
electorales.
Rendlicién de cuentas
Los requisitos anteriores se complementan con el de rendicién de cuentas, estrachamente relacionado con el
principio de equidad. Este requisite exige establecer mecanismos que permitan garantizar la responsabilidad y
rendicién de cuentas sobre los sistemas de IA y sus resultados, tanto antes de su implantacién come despues
desta,
Auditabilidad. La auditabilidad es la capacidad para evaluar los algoritmas, los dates y los procesos de disefio.
Esto no implica necesariamente que siempre deba disponerse de forma inmediata de la informacién sobre los
modelos de negocio y la propiedad intelectual del sistema de IA. Le evaluacién cor parte de auditores internos
y externos y la disponibilidad de los correspondientes informes de evaluacién pueden contribuir a la fabilidad
de esta tecnologia. En aplicaciones que afacten a los derechos fundamantales, Incluldas las aplicaciones
esenciales desde el punto de vista de la seguridad, los sictamas de IA daberian poder someterse a auditorias
independientes.
Minimizacién de efectos negativos y notificacién de estos. &s oreciso garentizar tanto la capecidad de
sta expresion dena los sscemas de A ae Se comunicane inceractdan con los eres numanos meclante la simulation dela
sodaidad ona ineracion entre humanos y ebots (1A intesrada) en forma de avetare en el arbi dei realidad vu. De este
odo, cichos Sstemat Hanan a potancial de tansiermar nucerae practices saccalturaes Valid Ga nest ids socal
\esee, por eerie, a preyectaFrerciceo gor ls UE decode el assrrate de software pasado en A que posbite que lee rabote
Inueractian és efcazmante cen nos autstas en sesionas de terapi ciigidas no" umanos,eyudando aielorar us eottuces|
sociales y de comunicacion
i/2 ew op eu/reseerh/infocentra/aicle_en ctmPide/teseerch/headines/naws/arice_13_03_12_enhimPntecentrasiter
rrocerte aris=a99t8,
2420)
32)
92)
Informar sobre las acclonas 0 dacisiones que contribuyen 2 un daterminada resultado del sistema camo de
respondar a las consacuencias de dicho resultado. La identificacion, evaluacion, natificacién y minimizacion de
los posibles efectos negativos de los sistemas de 1A resulta especialmente crucial para quienes raculten
(in)directamente afectades por ellos. Debe protegerse debidamente ¢ los denunciantes anénimos, las ONG,
los sindicatos u otras entidades que trasladen preocupaciones legitimas en relecin con un sistema basado en
1A, Le utiizecién de evaluaciones de impacto (como, por ejemplo, los «equipos rojos» o determinados tipos de
evaluacién algoritmica de impacto) antes y después del desarrollo, despliegue y utilizaciin de sisternas de la
puede rasultar Util para minimizar sus efectos negativos, Estas evaluaciones deben ser proporcionadas al
rlasgo que plantaen los sistamas de 1A
Bisqueda de equilibrios. A la hora de aplicar los requisitos anteriores pueden surgir tensiones entre ellos, por
lo que puede ser necesario buscar e! equilbrio, Este tipo de situaciones deberian abordarse de manera
raclonal y metddica de acuerdo con el nivel técnico actual, Esto significa que se daberian identificar los
Intaresas y valores subyacantes al sistema de [Ay que, en el caso de que surjan canflictas, se deberd explicitar
como se ha intentado buscar el equiliorio entre allos y evaluar dicho aquiliorio en términes del riasgo que
plantea para los principios éticos, incluidos los derechos furdamentalas. En las situacionas en que no sea
posible identifier equilibrios aceptables desde el punto de vista ético, no se deberia cor
desarrollo, despliegue y utiizacién del sistema de IA en la forme prevista. Cualquier decision sobre le
biisqueda de equilibrios debe razonarse y documentarse convenientemente. El encargado de la adopcién de
decisionas debe ser responsable de la forma en que se busque el equiligrio en cuestién, y revisar
constantemente la Idoneldad de la decisién resultante para garantizar que se pusdan introducir los cambios
necesarlos en el sistema cuanda saa preciso, *
Compensaciones. Cuando se produzcan efectos adversos injustos, deberian preverse mecanismos accesibles
que aseguren una compensacién adecuada™. El hecho de saber que se podré obtener una reparacién si las
cosas no salen saguin lo previsto es crucial para garantizar la conflanza. Se deberla prastar atencldn a las
personas 0 grupos vulnerables,
2. tétodas técnicas y no téenicos para hacer realidad la 1a lable
Para cumplr los requisites anteriormente expuestos, cabe utilizar tanto métedos técnicos como de otro tipo.
Dichos métodes abarcan todas las fases del ciclo de vida de un sistema de IA, Deberia llevarse a cabo una
evaluacin constante de los métados empleados para cumplir os requisitos; asimismo, se deberia informar y
justificer! en todo momento los cambies introducides en el proceso de aplicacién de estos. Dado que los
sistemas de IA evolucionan sin cesar y actdan en un entorno dindmico, la realizacién de la lA flable es un
proceso continua, como muestra le lustract6n 3,
vist diferentes modelo de gobenanaa que pueden eyuderelograr este abet, Pareja, lapresenca de un experteo
conselo ei ty especTica del sect Interna oeaterne pod resulta Ul para Gestacar bs des en las que pueden suri conmictos
Yysugetv a mer forma de reslver esos. Laceleacin de consulasy debates percnentes con as partes mteresadas, inCUidas as
‘ue corn elrago do vores perucieasa por un eterna ao IA tambisn ct do gran ayuda Lat unwsreldade curopeas astern
‘eur un papel ce derango an ls formacién de os eszecliztae en Aten cesarce|
\Véese también el dictamen de la Agencia de os Derechos Fundamentales dela Unién Europea (2017) sobre le mejor
el aczeso 2 compensaciones en el Ambito de los negocios los derechos humanos a escala dela Uni6n Europes,
bntps:/fra.europa.eu/en/opinion/2017 lusiness-humar-rights.
Esto coieva, por elempio, la sification dees cecsones acoptedas en elacon con el seo. desarrooy el desplague del
.ssiema pars ncorpora 6s feqstos ateiormente menconados
393)
94)
35)
96)
97)
L= }
Lo] l=)
‘ustracin 2 Le construcetn de una 18 fable a la largo de todo e cla ce vida del sistema
Los métodos siguientes pueden considerarse complementarios o alternativos entre si, dado que los diferentes
requisitos —y las diversas sensibilidades— pueden plantear la necesidad de utilizar métodos de aplicacién
distintas. La deseripcién que sigue no pretende ser exhaustiva, completa ni de obligado cumplimiento. Su
‘inalldac es ofracer una lista de métodos propuastos que pueden resultar utiles pars lograr una lA fiable.
En esta seccion se describe una serie de métodos técnicos para garantizar Ia fiablidad do la IA que se pueden
incorporar en las fases de cisefio, desarrollo y utilizacién de un sistema de IA. Los métodos que se enumeran
continuacién presentan un nivel de madurez variable®.
Arquitecturas pore una lA fiable
Los requisites de une IA fiable deben «traducirse en procedimientos (0 en la imposic
sobre estos) que deben Integrarse en la arquitectura de los sistemas de IA. Esto puede lograrse a través de un
conjunte de narmas de tipo «lista blanca» (compartamlantas o estades) que el sistema deberia cegulr en taco
momento, restriccionas (ulista negra») sobre detarminados comportamientos 0 estados que el sistema jamas
deberia transgredir y combinaciones de ambas, o garantias demostrables mis complejas sobre el
comportamiento de! sistema. El control del cumplimiento de dichas restricciones por parte del sistema
durante su funcionamiento puede llevarse a cabo 2 través de un proceso separado,
Los sistemas de 1A con capacidades de aprendizaje que puaden adaptar su conducta de forma dinamica
pueden entenderse como un sistema no determinista que podria exhibir un comportamiento inesperad. Este
tipo de sistemas se ve a menudo a través del prisma tedrico de un ciclo «sentir planear-actuars, La adaptacién
de esta arquitecture pare garantizar la flabilidad de le IA exige integrar los requi
etapas del ciclo: i] en la etapa esentics, el sistema deberie deserrollarse de modo que reconozca todos los
elementos del entorno necesarios para garantizar el cumplimianto de los requisites; i en le etapa «planear»,
el sistema debaria tener en consideracién Gnicamente aquellos planes que cumplan los requisitos; il) en |
etapa «actuary, las acciones del sistema deberian limitarse a comportamlentos que cumplan los requisites.
1s descritos en las tres
La arquitecture que equi se esboza es de cardcter genérico y Gnicamente ofrece una descriocién imperfecta
para le mayoria de los sistemas de IA. No obstante, también proporciona puntos de partida para las
restricciones y politicas que deberian reflejarse en madulos especificos a fin de crear un sistema global fiable y
que sea percibido como tal
Etica y estado de Derecho desde el disefio
ese aque elgunes de elcsyaestn deponiles ena actulidad, oto: todavia requicran invesigeioneseccionles.Aqulls Gress
enlas que es preciso cortnuarirvestigenco también zportardn informacion de cara la elaborisn cel segundo ertvegable del
Grupo de experts 6 at ive soe wtelgencia iis saber, las recomendaciones sobre plies e inversion,
2538)
29)
100)
201)
Los métodos dlrigidos a garantizar determinados valoras desde el propio disefo ofrecen vinculas precisos y
explicitos entre los principios abstractos que se exige que cumpla el sistema y las decisiones espacificas
relativas a su aplicacién. La idea de que el cumplimianto de las normas puade intraducirse en el disefio del
sistema de 1A es clave en este método. Las empresas son responsables de identificar los efectos de sus
sistemas de 1A desde el principio, asi como las normas que deberian cumplir dichos sistemas pars evitar
efectos negatives. En la actualidad ya se utilizan numerasos conceptos diferentes que incluyen la exoresién
adesde el disefion, como la privacidad desde el disefio 0 la seguridad desde el disefio. Como se ha indicado
anterlormente, la conflanza en la 'A depende de la seguridad de sus procesos, datos y resultados, asf como de
Un diseto robusto que le permita hacer frente a posibles datos y ataques mallntancionados. Los sistemas de 1A
debarian incluir un macanismo de apagado 2 prueba de fallos, que ademas posibilite [a reanudacion del
funcionamiento del sistema tras un apagado forzado (por ejemplo, un ataque)
métodos de explicacién
Para que un sistema sea fable, hemos de ser capaces de comorender por qué se comporté de una
determinada manera y por qué ofrecié una interpretacién especifica. Existe todo un campo de investigacién, Ia
I explicable (conocido por las siglas XAl), que intenta resolver esta cuestién a fin de entender mejor los
mecanismos subyacentes 2 estos sistemas y encontrar soluciones. Hoy en dia este sigue siendo un desafio
abierto para los sistemas de IA basadlos en redes neuronales. Las procesos de formacién con redes neuronales
pueden dar lugar a pardmetros de red configurados con valores numéricas dlficllas de correlacionar con
resultados. Ademas, a vaces unas pequefias variacionas en los valoras de los datos puedan traducirse en
interpretaciones completamente diferentes, provacando, por ejemplo, que el sistema confunda un autobus
escolar con un avestruz. Esta vulnerabilidad también se puede explotar durante los ataques contra el sistema,
Los métodos que incluyen Investigaciones XAl resultan vitales, no solo para explicar a los usuarios el
comportamiento de los sistemas, sino también para desplegar tecnologia fiable
Realizacién de ensayos y validacion
Debido a la naturaleza no determinista y especifice del contexto de los sistemas de IA, los enseyos
tradicionales no bastan. Los errores de los conceptos y representaciones que utiliza el sistems podrian
rmanifestarse dinicamente cuando se aplique un programa a datos suficientemente realistas, En consecuer
para veriticar y validar el tratamiento da los dates, dave llevarse a cabo un seguimiento minucioso de Is
estabilidad, solide y funcionamiento del modelo subyacente, tanto durante Ia formacién como durante el
despliegue, dentro de unos limites predecibles y correctamente entendidos. Debe garantizarse que el
resultado del proceso de planificacién sea coherente con la informacién introducida, y que las decisiones se
adopten de un made que permita la validacién del proceso subyacente.
El ensayo y la validacion dal sistema deban tener lugar lo antes posible, garantizando que al sistema se
comporte segiin lo pravisto a lo largo de todo su ciclo de vida y, en especial, tras su despliegua, Dicha fase de
ensayo y validacién deberia abarcar todos los componentes de un sistema de IA, incluidos fos datos, los
modelos previemente formados, los entornos y el comportamiento del sistema en su conjunto. Su disefio y
elecucién deberian correr a cargo de un grupo de personas lo més diverso posible. Se deberian desarrollar
mmiltiples pardmetros que engloben las categorias sometidas ¢ verificacién, con el fin de obtener diferentes
perspectivas. S2 puede estudiar la posibiidad de realizar ensayos mediante procedimmientos contradictarios @
cargo de cequipes rojos» diversas y de conflanza, en los que se Intente «destrulr» dellberadamente el sistema
para encontrar posiblas vuinerabilidades, asi como de concader pramias a agentes axternos que sean capaces
de detectar e informar de forma responsable sobre los errores y datilidades del sistema. Por ditimo, debe
garantizarse que los productos 0 acciones sean coherentes con los resultados de los procesos precedentes,
para lo cual seré necesario comparatlos con las politicas previamente definidas a fin de garantizar que no se
vulneren,
Indicadores de colided del servicio
7102)
103)
304)
305)
106)
107)
existe la posibilidad de definirIndicadares adacuados de calidad dl sarviclo para los sistemas de 1A con abjeto
de garantizar que sea posible saber si dichos sistemas se han ancayado y desarrollado teniendo presentes las
consideraciones relativas a la seguridad. Estos indicadores podrian incluir parémetros para avaluar los ensayo
realizados y ls formacion de algoritmos, asi como los parémetros tradicionales de funcionalidad del software,
surendimiento, usabilidad, fabilidad, seguridad y fecilidad de mantenimiento.
Métodos no técnicos
en esta seccién se dascriben dlvarsos métadas no técnicos que pueden rasultar muy utlles para garantlzar y
mantener la flablidad de la IA. Estos métodos también deberian someterse a una evaluacion constante
Normativa
como ya s2 ha menclonado anteriormante, hoy en dia ya existe normativa de apoyo a la ‘labllidad de la 1A
Piensese, por ejemplo, en la legiclacion sobre seguridad de los productos y en los marcos de responsabilidad,
En la medida en que se considere que puede ser necesario revisar 0 adaptar dicha normativa —o introducir
, tanto con fines de orateccién como de fomento, dicha necesidad se planteard en nuestro
segundo entregable, @ saber, las recomendaciones en materia de politicas e inversién en el mbito de la IA.
Odigos de conoucta
Las organizaciones y partes interesadas pueden adoptar estes directrices y adapter sus cartas de
responsabilidad empresatial, sus indicadores clave de rendimiento («KPIa), sus cOdigos de conducta 0 sus
documentos intarnas de politica para contribu a los esfuerzos conducentes a la creaciin de una 1A flable
Desde un punto de vista mas general, una organizacién que trabaje en un sistema de IA puede documentar sus
intenciones y sustentarlas en daterminados valores considerados deseables, como los derechos
fundamentales, la transparencia 0 el principio de no causar dafo,
Normatizacién
Las normas, como las relativas al disefio, la fabricacién o las prdcticas empresariales, pueden funcionar como
un sistema de gestién de la calidad para los usuarios de la IA, los consumidores, las organizaciones, las
instituciones de investigacién y los gobiernos, ofreciendo a todos estos agentes la capacidad de reconocer y
fomentar una conducts ética a través de sus decisiones de compra. Mis alld de las normas convencicnales,
existen enfoques de regulacién conjunta: sistemas de acreditacién, cédigos éticos profesionales © normas
dlirigidas a garantizar que el disefto respete los derechos fundamentalas. Entre las ejemplos axistentes an la
actualidad se encuentran, por ejemplo, las normas ISO 0 la serle de normas IEEE P7000, aunque en el futuro
podria rasultar adecuado crear un sello de WIA fiables que, a partir de las normas técnicas espaciticadas,
confirme por ejemplo que el sistema cumple los raquisitos de seguridad, solide: técnica y explicabllidad,
certpicacién
Dado que no esbe esperar que todas y cada una de las personas comprendan plenamente el funcionamiento y
los efectos de los sistemas de IA, puede tenerse en consideracién @ aquellas organizaciones que pueden
acreditar ante el pdblico que un sistema de IA es transparente, responsable y equitativo'™, Estas certificaciones
aplicarlan normas dasarrolladas para diferentes ambitos de aplicacién y técnicas de 1A, convenientemente
alineadas con las normas industriales y sociales del contexto especifico de que se trate. No obstante, Ia
certificacién nunca puede sustituir2 la responsabilidad. Por lo tanto, daberia complementarse con marcos de
rendicién de cuentas que incluyan cléusulas de exencién de rescansabilidad, asi como con mecanismos de
Tal como etiende por elem, a niiatva pata un Deo Ainezco con aca dl Irstituta de genres elervins yelecrnices
(EEE): rips/standates lee orgfneustryccnmections/e/autoncrous-systems MM
23
También podría gustarte
Conclusiones
Aún no hay calificaciones
Conclusiones
14 páginas
FP Europa
Aún no hay calificaciones
FP Europa
5 páginas
Clúster 2
Aún no hay calificaciones
Clúster 2
6 páginas
Quezada 9-10
Aún no hay calificaciones
Quezada 9-10
5 páginas