0% encontró este documento útil (0 votos)
97 vistas127 páginas

Ia y Justicia

DOSSIER DEL CEPC SOBRE INTELIGENCIA ARTIFICIAL Y JUSTICIA. CATÁLOGO DE LEGISLACIÓN JURISPRUDENCIA Y DOCTRINA.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
97 vistas127 páginas

Ia y Justicia

DOSSIER DEL CEPC SOBRE INTELIGENCIA ARTIFICIAL Y JUSTICIA. CATÁLOGO DE LEGISLACIÓN JURISPRUDENCIA Y DOCTRINA.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

DOSSIER

Inteligencia artificial
y justicia
Servicio de Documentación Jurídica

> Subdirección General de Publicaciones y Documentación


Área de Documentación, Biblioteca y Archivo

Septiembre 2025

NIPO: 145-25-038-5
Contenido
Presentación 4

Legislación e iniciativas en España 6

Legislación 7

Otra normativa 12

Documentación complementaria 13

Legislación e iniciativas en el ámbito internacional 20

Instituciones supranacionales 21
ONU 21
UNESCO 21
OCDE 24
Unión Europea 24
Legislación e iniciativas en Europa 42
Alemania 42
Austria 48
Bélgica 54
Estonia 56
Francia 60
Italia 68
Portugal 72
Reino Unido 77
Legislación e iniciativas en Iberoamérica 78
Argentina 78
Brasil 81
Chile 87
Colombia 88
Ecuador 91
Perú 93
Uruguay 97
Otros países 99
Canadá 99
Estados Unidos 103
China 108
Jurisprudencia relacionada 111
España 112
Tribunal de Justicia de la Unión Europea 113
Estados Unidos 115
Colombia 117

Bibliografía complementaria 119

Monografías 120

Artículos de revista 121

Capítulos en obras colectivas 124

Otras publicaciones 125


Presentación

El Diccionario de la Real Academia Española define la inteligencia artificial


como la «Disciplina científica que se ocupa de crear programas informáticos
que ejecutan operaciones comparables a las que realiza la mente humana, como
el aprendizaje o el razonamiento lógico». Aunque se han propuesto diversas
caracterizaciones de la IA, no podemos afirmar que exista una definición
«estandarizada», por así decirlo. El Grupo de Expertos de Alto Nivel (HLEG)
sobre Inteligencia Artificial, nombrado por la Comisión Europea con el objetivo
principal de apoyar la aplicación de la Estrategia Europea de IA, propuso en 2020
la siguiente definición: «Los sistemas de inteligencia artificial (IA) son sistemas
de software (y posiblemente también de hardware) diseñados por humanos que,
dado un objetivo complejo, actúan en la dimensión física o digital percibiendo su
entorno mediante la adquisición de datos, interpretando los datos estructurados
o no estructurados recopilados, razonando sobre el conocimiento, o procesando
la información derivada de estos datos y decidiendo la(s) mejor(es) acción(es) a
tomar para alcanzar el objetivo dado. Los sistemas de IA pueden utilizar reglas
simbólicas o aprender un modelo numérico, y también pueden adaptar su
comportamiento analizando cómo se ve afectado el entorno por sus acciones
anteriores».
La inteligencia artificial es en estos momentos un asunto de máxima
actualidad. Su impacto en innumerables aspectos de nuestras vidas presenta
una amplia gama de oportunidades, pero también una serie de retos que es
necesario evaluar y afrontar mediante las estrategias y regulaciones oportunas.
Parece que el desarrollo de la Inteligencia Artificial en el ámbito de
la Administración de Justicia agilizará procedimientos y trámites con la
automatización de trabajos burocráticos, pero también planteará algunos
problemas, con lo cual habrá que mantener un control constante para detectar
y corregir sesgos y, en cualquier caso, habrá que tener en cuenta la protección
de los derechos humanos por encima de todo.

CEPC Inteligencia artificial y administración de justicia 4


Es por ello que la protección de datos es uno de los asuntos especialmente
relevantes relacionados con este tema. Ya la Constitución española, promulgada
en una fecha temprana en relación con el desarrollo de las nuevas tecnologías,
señala en el punto 4 del artículo 18 que «la ley limitará el uso de la informática
para garantizar el honor y la intimidad personal y familiar de los ciudadanos y el
pleno ejercicio de sus derechos”. En esta línea, la Ley Orgánica 7/2021, de 26 de
mayo asegura la protección de datos personales en el ámbito penal, trasponiendo
la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo de 27 de abril
de 2016 relativa a la protección de las personas físicas en lo que respecta al
tratamiento de datos personales por parte de las autoridades competentes para
fines de prevención, investigación, detección o enjuiciamiento de infracciones
penales o de ejecución de sanciones penales, y a la libre circulación de dichos
datos. Dicha Ley Orgánica modifica parcialmente la Ley Orgánica 6/1985, de
1 de julio, del Poder Judicial (LOPJ), y es aplicable a las fuerzas de seguridad,
el Ministerio Fiscal y los órganos judiciales en España, haciendo hincapié en la
importancia de cooperar e intercambiar información personal entre países para
combatir amenazas de seguridad en un mundo globalizado e interconectado.
En el ámbito Internacional diversos organismos, como la Unión Europea
y la Organización de las Naciones Unidas, están trabajando actualmente en
diferentes estrategias y regulaciones relativas a la Inteligencia Artificial, con
el fin de establecer unas directrices aplicables a las normativas nacionales. El
objetivo de este informe es dar una visión actualizada de estas iniciativas, tanto
a nivel internacional como de cada país.
Para ello, se ha realizado una recopilación de la legislación incipiente y de
documentación complementaria, que recoge tanto las aplicaciones tecnológicas
concretas como los planes y estrategias que se han ido planteando. Se completa
el informe con una selección bibliográfica sobre el tema.

CEPC Inteligencia artificial y administración de justicia 5


1
Legislación e iniciativas en España

CEPC Inteligencia artificial y administración de justicia 6


Legislación

Fuentes: Real Decreto-ley 6/2023, de 19 de diciembre, por el que se aprueban


medidas urgentes para la ejecución del Plan de Recuperación,
Boletín Oficial del Estado
Transformación y Resiliencia en materia de servicio público de justicia,
función pública, régimen local y mecenazgo. Boletín Oficial del Estado, 20
de diciembre de 2023, núm. 303.
Enlace a la disposición

Esta norma recupera gran parte del contenido de los proyectos de ley de medidas
de eficiencia digital y de eficiencia procesal del Servicio Público de Justicia. La
disolución de las Cortes por la convocatoria de elecciones generales en mayo de
2023 interrumpió la tramitación de ambas iniciativas.

VI
«[…] El título II del libro primero regula el acceso digital a la Administración de
Justicia. La accesibilidad al sistema de Justicia es uno de los aspectos clave que la
norma pretende mejorar. En este marco se engloban tres grandes previsiones.
Se regula el Punto de Acceso General de la Administración de Justicia (PAGAJ),
orientándolo también hacia una perspectiva de servicios a la ciudadanía. Se crea un
servicio nuevo y personalizado para la ciudadanía dentro del PAGAJ, la carpeta en
el ámbito de la Administración de Justicia (o Carpeta Justicia, interoperable con la
Carpeta Ciudadana del Sector Público Estatal, que facilitará el acceso a los servicios
y procedimientos o a la sede judicial electrónica de la Administración competente
en materia de justicia donde se presten, para las personas que sean partes o
interesadas). Requerirá identificación previa y los requisitos de esta se establecerán
reglamentariamente, previo informe del Comité Técnico Estatal de la Administración
Judicial Electrónica.
Se actualizan los sistemas de identificación y autenticación conforme a lo previsto
en el Reglamento (UE) n.º 910/2014 del Parlamento Europeo y del Consejo, de 23 de
julio de 2014, incluyendo el establecimiento de un sistema seguro de identificación
en videoconferencias, la regulación de sistemas de Código Seguro de Verificación,
sistemas de firma del personal al servicio de la Administración de Justicia, normas
sobre interoperabilidad e identificación y representación de la ciudadanía, así como
intercambio electrónico de datos en entornos cerrados de comunicación.
Además, con el fin de mejorar la operatividad y hacer más accesible la identificación
digital a personas que por diversas razones no tienen acceso a un certificado
electrónico o tienen dificultad en su utilización, se articula en el ámbito de la
Administración de Justicia un sistema de identificación y firma no criptográfica en
actuaciones y procedimientos judiciales.
[…] El título III del libro primero se refiere a la tramitación electrónica de los
procedimientos judiciales, orientada al dato, siendo esta una de las grandes
novedades de esta ley. Para conseguir la tramitación electrónica íntegra de los
procedimientos, los sistemas de información y comunicación permitirán conservar
traza de cualquier acceso, creación, modificación o borrado de información del
ámbito jurisdiccional para todo el personal interviniente.
De la regulación contenida sobre esta materia cabe destacar los siguientes aspectos:
[…]
b) Principio general de orientación al dato.
Ya se ha dicho más arriba que los datos son clave en las políticas públicas modernas. La
gestión sobre los mismos posibilitará o facilitará la interoperabilidad de los sistemas,
la tramitación electrónica, la búsqueda y análisis de los datos, la anonimización y
seudonimización, la elaboración de cuadros de mando, la gestión de documentos
y su transformación, la publicación de información en portales de datos abiertos,
la producción de actuaciones automatizadas, asistidas y proactivas, la utilización

CEPC Inteligencia artificial y administración de justicia 7


de sistemas de inteligencia artificial para la elaboración de políticas públicas, y la
transmisión de los datos conforme a lo que se determine.
[…]
g) Actuaciones automatizadas, proactivas y asistidas. Se regulan las actuaciones
automatizadas y, como subtipo de ellas, las proactivas.
Las actuaciones automatizadas se regulan haciendo previsiones específicas para su
uso para tareas repetitivas y automatizables, pero también estableciendo límites. Estas
actuaciones se ven especialmente facilitadas a través de la orientación al dato, que
permite que algunas cuestiones que antes no se podían hacer de manera automática
porque requerían que se leyera un documento, se procesara y se hicieran tareas con
base en la información, se puedan ahora realizar de manera automática (por ejemplo,
cálculo de plazos con base a fechas que aparecen como datos, comprobaciones
automáticas de situación concursal de una empresa, en base a NIF y tipo de proceso
judicial, etc.).
[…]
Finalmente, como tipo diferenciado de las anteriores, pero con algunos requisitos
en común, se definen las actuaciones asistidas, que generan un borrador total o
parcial de texto, que puede servir de apoyo a la tarea del juez o jueza, magistrado o
magistrada, fiscal y letrado o letrada de la Administración de Justicia, manteniendo
éstos siempre pleno control sobre el texto y sin que el borrador se constituya en
resolución sin la intervención del operador. Para estas tareas, es fundamental la
orientación al dato (para posibilitar la generación de borradores de calidad), así como
la aplicación de nuevas tecnologías, como la Inteligencia Artificial.

TÍTULO III
De la tramitación electrónica de los procedimientos judiciales
CAPÍTULO II. Tramitación orientada al dato

Artículo 35. Principio general de orientación al dato.


1. Todos los sistemas de información y comunicación que se utilicen en el ámbito de
la Administración de Justicia, incluso para finalidades de apoyo a las de carácter
gubernativo, asegurarán la entrada, incorporación y tratamiento de la información en
forma de metadatos, conforme a esquemas comunes, y en modelos de datos comunes
e interoperables que posibiliten, simplifiquen y favorezcan los siguientes fines:
a) La interoperabilidad de los sistemas informáticos a disposición de la Administración
de Justicia.
b) La tramitación electrónica de procedimientos judiciales.
c) La búsqueda y análisis de datos y documentos para fines jurisdiccionales y
organizativos.
d) La búsqueda y análisis de datos para fines de estadística.
e) La anonimización y seudonimización de datos y documentos.
f) El uso de datos a través de cuadros de mandos o herramientas similares, por cada
Administración Pública en el marco de sus competencias.
g) La gestión de documentos.
h) La autodocumentación y la transformación de los documentos.
i) La publicación de información en portales de datos abiertos.
j) La producción de actuaciones judiciales y procesales automatizadas, asistidas y
proactivas, de conformidad con la ley.
k) La aplicación de técnicas de inteligencia artificial para los fines anteriores u
otros que sirvan de apoyo a la función jurisdiccional, a la tramitación, en su caso,
de procedimientos judiciales, y a la definición y ejecución de políticas públicas
relativas a la Administración de Justicia.

CEPC Inteligencia artificial y administración de justicia 8


l) La transmisión de datos entre órganos judiciales, administraciones públicas y
asimismo con los ciudadanos y ciudadanas o personas jurídicas, de acuerdo con la
ley.
m) Cualquier otra finalidad legítima de interés para la Administración de Justicia.
2. El uso de modelos de datos será obligatorio en las condiciones que se determinen
por vía reglamentaria, previo informe del Comité técnico estatal de la Administración
judicial electrónica, para el ámbito de todo el territorio del Estado».

Nota: Real Decreto 817/2023, de 8 de noviembre, que establece un entorno


El Reglamento fue publicado
controlado de pruebas para el ensayo del cumplimiento de la propuesta
en el Diario Oficial de la Unión de Reglamento del Parlamento Europeo y del Consejo por el que se
Europea el 12 de julio de 2024. establecen normas armonizadas en materia de inteligencia artificial.
Enlace a la disposición Boletín Oficial del Estado, 9 de noviembre de 2023, núm. 268, pp. 149138-
149168.
Enlace a la disposición

«[…] La Comisión Europea ha presentado una propuesta de Reglamento del


Parlamento Europeo y del Consejo por el que se establecen normas armonizadas
en materia de inteligencia artificial con el objetivo de asegurar el respeto de los
derechos fundamentales de la ciudadanía y generar confianza en el desarrollo y la
utilización de la inteligencia artificial de manera holística en la economía y la sociedad.
El citado Reglamento busca proveer a la Unión Europea de un marco normativo con
el fin de promover una inteligencia artificial fiable, ética y robusta.
La propuesta no regula la tecnología en sí, sino las aplicaciones de alto riesgo de
inteligencia artificial.
En este contexto, el Gobierno de España, con la colaboración de la Comisión Europea,
pone en marcha el primer entorno controlado de pruebas para comprobar la forma de
implementar los requisitos aplicables a los sistemas de inteligencia artificial de alto
riesgo de la propuesta de reglamento europeo de inteligencia artificial con el ánimo
de obtener, como resultado de esta experiencia, unas guías basadas en la evidencia
y la experimentación que faciliten a las entidades, especialmente las pequeñas y
medianas empresas, y a la sociedad en general, el alineamiento con la propuesta del
Reglamento Europeo de Inteligencia Artificial. Durante el desarrollo de este entorno
controlado de pruebas, se utilizará como referencia la posición del Consejo de la
Unión Europea del 25 de noviembre de 2022, como se explica en el anexo I.
Este entorno controlado de pruebas también posibilita la cooperación entre los
Esta propuesta de Reglamento
usuarios y los proveedores de inteligencia artificial, validando desde ambos aspectos
fue finalmente aprobada
el 13 de junio de 2024. la implementación de los requisitos tanto de sistemas de inteligencia artificial de alto
riesgo, así como de los sistemas de propósito general y modelos fundacionales con
respecto al cumplimiento de los requisitos de la futura normativa europea. […]».

Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto


de la Agencia Española de Supervisión de Inteligencia Artificial. Boletín
Oficial del Estado, 2 de septiembre de 2023, núm. 210, pp. 122289-122316.
Enlace a la disposición

Real Decreto 857/2021, de 5 de octubre, por el que se regula la concesión


directa de una subvención al Instituto Universitario Europeo para el
desarrollo de las actividades de la Cátedra sobre Inteligencia Artificial
y Democracia, en el marco del Plan de Recuperación, Transformación y

CEPC Inteligencia artificial y administración de justicia 9


Resiliencia. Boletín Oficial del Estado, 28 de octubre de 2021, núm. 258,
pp. 130576-130589
Enlace a la disposición

«[…] Estos programas y actuaciones encuentran su reflejo en la Estrategia Nacional


de Inteligencia Artificial, publicada el 2 de diciembre de 2020, cuyo eje estratégico 1 se
propone impulsar la investigación científica, el desarrollo tecnológico y la innovación
en inteligencia artificial, entre otras formas, promoviendo la explotación de sinergias
de investigación entre las universidades y centros de investigación mediante redes de
cooperación interuniversitaria, y con las empresas y la Administración del Estado en
general, teniendo en cuenta que las humanidades y las ciencias sociales presentan un
carácter transversal y se deben tener en cuenta en todos los sectores de aplicación
de la inteligencia artificial. En el marco del Plan de Recuperación, Transformación
y Resiliencia, la Estrategia Nacional de Inteligencia Artificial se corresponde con el
Componente 16 del mismo.
En este contexto, en junio de 2021 se creó la Cátedra «Inteligencia Artificial
y Democracia», formalizada como convenio entre la Secretaría de Estado de
Digitalización e Inteligencia Artificial, el Instituto de Gobernanza Democrática y
el Instituto Universitario Europeo, hospedador de la misma, teniendo esta como
funciones la realización continua de actividades de investigación, transferencia,
divulgación, docencia e innovación sobre materias relacionadas con la inteligencia
artificial y la democracia. Esta cátedra contribuye a la necesidad de analizar el
impacto de la inteligencia artificial sobre la democracia, la sociedad y el individuo,
participando activamente y promoviendo el debate internacional sobre el papel de
una inteligencia artificial centrada en el bienestar y la sostenibilidad, de conformidad
con lo planificado en nuestra Estrategia Nacional de Inteligencia Artificial.
Igualmente, la cátedra aportará difusión a unos conocimientos útiles de cara a crear
las competencias necesarias en torno a una materia que podrá ser demandada ante
la llegada de nuevos marcos normativos relacionados con la inteligencia artificial».

Ley Orgánica 7/2021, de 26 de mayo, de protección de datos


personales tratados para fines de prevención, detección, investigación
y enjuiciamiento de infracciones penales y de ejecución de sanciones
penales. Boletín Oficial del Estado, 27 de mayo de 2021, núm. 126.
Enlace a la disposición

«Efectúa la transposición de la Directiva (UE) 2016/680 del Parlamento Europeo y


del Consejo de 27 de abril de 2016 relativa a la protección de las personas físicas en
lo que respecta al tratamiento de datos personales por parte de las autoridades
competentes para fines de prevención, investigación, detección o enjuiciamiento
de infracciones penales o de ejecución de sanciones penales, y a la libre circulación
de dichos datos, y por la que se deroga la Decisión Marco 2008/977/JAI del Consejo.
(LO 7/21).
Artículo 14. Mecanismo de decisión individual automatizado.
1. Están prohibidas las decisiones basadas únicamente en un tratamiento
automatizado, incluida la elaboración de perfiles, que produzcan efectos jurídicos
negativos para el interesado o que le afecten significativamente, salvo que se
autorice expresamente por una norma con rango de ley o por el Derecho de la
Unión Europea. La norma habilitante del tratamiento deberá establecer las medidas
adecuadas para salvaguardar los derechos y libertades del interesado, incluyendo el
derecho a obtener la intervención humana en el proceso de revisión de la decisión
adoptada.
2. Las decisiones a las que se refiere el apartado anterior no se basarán en las
categorías especiales de datos personales contempladas en el artículo 13, salvo que
se hayan tomado las medidas adecuadas para salvaguardar los derechos y libertades
y los intereses legítimos del interesado.

CEPC Inteligencia artificial y administración de justicia 10


3. Queda prohibida la elaboración de perfiles que dé lugar a una discriminación
de las personas físicas sobre la base de categorías especiales de datos personales
establecidas en el artículo 13».

Real Decreto 396/2013, de 7 de junio, por el que se regula el Comité


técnico estatal de la Administración judicial electrónica. Boletín Oficial
del Estado, 19 de junio de 2013, núm. 146, pp. 46136-46149.
Enlace a la disposición

«Artículo 6. Competencias.
Son competencias del Comité técnico estatal de la Administración Judicial electrónica:
[…]
l) Establecer, para los supuestos de la actuación judicial automatizada, la definición
de las especificaciones, programación, mantenimiento, supervisión y control de
calidad y, en su caso, la auditoría del sistema de información y de su código fuente,
incluidos los indicadores de gestión, sin perjuicio, en este último supuesto, de
aquellos indicadores que fueren señalados por la Comisión Nacional de Estadística
Judicial en el ámbito de sus competencias, así como los necesarios para cumplir con
la planificación estadística recogida en el Plan Estadístico Nacional».

CEPC Inteligencia artificial y administración de justicia 11


Otra normativa

Orden TDF/619/2024, de 18 de junio, por la que se crea y regula el Consejo


Asesor Internacional en Inteligencia Artificial. Boletín Oficial del Estado,
21 de junio de 2024, núm. 150, pp. 72251-72254.
Enlace a la disposición

«[…] El Consejo Asesor Internacional en IA se establece con el propósito de asesorar


al Gobierno español en la implementación de políticas públicas efectivas, ofreciendo
un foro de debate experto con una perspectiva internacional. Este Consejo integrará
a profesionales de reconocida trayectoria internacional, junto con representantes de
los ámbitos científico, económico y social. Estos expertos contarán con experiencia en
campos cruciales de la inteligencia artificial, como la interacción humano-máquina,
ciencia cognitiva, ética y democracia, aprendizaje automático, visión computacional,
ciencia de datos, transparencia y las implicaciones sociales de la IA.
El Consejo Asesor Internacional en IA proporcionará recomendaciones estratégicas
para ayudar al Gobierno a desarrollar políticas que impulsen la innovación y
garanticen un uso justo, inclusivo y eficaz de la inteligencia artificial, convirtiendo
a España en un referente global en el uso responsable de estas tecnologías para un
crecimiento económico sostenible e inclusivo […]».

Orden ETD/670/2020, de 8 de julio, por la que se crea y regula el Consejo


Asesor de Inteligencia Artificial. Boletín Oficial del Estado, 22 de julio de
2020, núm. 199, pp. 55144-55147.
Enlace a la disposición

«[…] En este contexto y con el fin de asesorar al Ministerio en materias relacionadas


con el desarrollo e impulso a las políticas de inteligencia artificial y favorecer el
debate experto sobre las políticas públicas que precisa España, se crea el Consejo
Asesor de Inteligencia Artificial.
El Consejo estará constituido por personas de reconocido prestigio internacional y
representantes del ámbito científico, de la economía y de la sociedad con experiencia
en aspectos clave de la inteligencia artificial, como por ejemplo la interacción
hombre-máquina, educación, gestión del conocimiento, ciencia cognitiva,
aprendizaje automático, ética, IA y democracia, ciencia de los datos y big data, visión
por computador, reconocimiento de voz, tecnologías del lenguaje, transparencia de
datos o implicaciones sociales de la inteligencia artificial».

CEPC Inteligencia artificial y administración de justicia 12


Fuentes: Documentación complementaria
Ministerio de la Presidencia,
Justicia y Relaciones
con las Cortes Dirección General de Transformación Digital de la Administración de
Ministerio de Economía, Justicia (2025). Servicios de Inteligencia Artificial relacionados con los
Comercio y Empresa Documentos.
Sitio web del Plan Enlace al sitio
de Recuperación,
Transformación y Resiliencia
Generalitat de Cataluña.
Departamento de Justicia Dirección General de Transformación Digital de la Administración
y Calidad Democrática de Justicia (2025). Innovación en Justicia: Inteligencia Artificial y RPA
Gobierno de Cataluña [Robotización].
Enlace al documento

Ministerio para la Transformación Digital y la Función Pública (2024).


Estrategia de Inteligencia Artificial 2024.
Enlace al documento

Comité Técnico Estatal de la Administración Judicial Electrónica (2024).


Política de uso de la inteligencia artificial en la Administración de Justicia.
Enlace al documento

Comité Técnico Estatal de la Administración Judicial Electrónica (2022).


Manifiesto por un espacio público de datos en el ámbito de Justicia.
Enlace al documento

Gobierno de España (2021). Plan de Recuperación, Transformación y


Resiliencia.
Enlace a la página

El Plan de Recuperación, Transformación y Resiliencia español se encuadra


entre los planes nacionales elaborados por los 27 estados miembros de la Unión
Europea para acogerse al Plan de Recuperación para Europa NextGenerationEU,
puesto en marcha para hacer frente a la crisis provocada por el coronavirus, y
que fue aprobado por el Consejo Europeo el 21 de junio de 2020.
El Plan se articula en una serie de inversiones a desarrollar entre 2021 y 2026,
junto con un extenso programa de reformas estructurales y legislativas que
pretenden hacer frente a los retos del país y avanzar hacia una España verde,
digital, inclusiva, con mayor cohesión social y territorial y sin brechas de género.
En octubre de 2023 el Consejo de Asuntos Económicos y Financieros de la Unión
Europea (ECOFIN) aprobó el informe favorable para activar la segunda fase.
Componente 11: Modernización de las Administraciones Públicas:
Reforma 2: Reforma para el impulso del Estado de Derecho y la eficiencia del
servicio público de justicia (Página 25).
«Instrumentos normativos para el despliegue y ejecución del programa:

CEPC Inteligencia artificial y administración de justicia 13


3. La Ley de eficiencia digital del servicio público de Justicia: contempla la creación
de una arquitectura de información basada en datos, para la función de generación
de información y conocimiento para la gestión; así como en una arquitectura de
información orientada al meta-dato, para la función de la interoperabilidad de
aplicaciones».
Componente 16: Estrategia Nacional de Inteligencia Artificial (Ver más adelante).

Nota: Ministerio de Justicia (2021). Plan Justicia 2030.


En la XV Legislatura y desde la Enlace a la página
formación del nuevo gobierno
en noviembre de 2023, el
Ministerio de Justicia español Justicia 2030 es la materialización del Plan de Recuperación, Transformación
se encuadra en el Ministerio y Resiliencia para el Servicio Público de Justicia. Se trata de un plan de trabajo
de Presidencia, Justicia y común a 10 años, cuyo objetivo general es transformar el Servicio Público de
Relaciones con las Cortes. Justicia para hacerlo más accesible y eficiente, y contribuir al esfuerzo común
de cohesión y sostenibilidad.
Identifica nueve ámbitos de incidencia: accesibilidad a la Justicia, profesionales
de la Justicia, nuevas realidades sociales, eficiencia organizativa, procesal
y digital, servicios a la ciudadanía, sociedades sostenibles y coordinación y
cohesión institucional. Estos nueve ámbitos se transforman en programas en
torno a los cuales se reúnen los diferentes proyectos de transformación.
En cuanto a la eficiencia digital, la clave de este programa es generar un marco
normativo para la digitalización del Servicio Público de Justicia. Se desarrolla en
base a tres proyectos: la Ley de eficiencia digital del Servicio Público de Justicia,
Analítica legislativa y judicial y Actuaciones telemáticas.
Es en la Analítica legislativa y judicial donde encontramos una incidencia
directa de la inteligencia artificial:
«El nuevo paradigma de una justicia orientada al dato va a permitir disponer de
un big data con grandes cantidades de informaciones difíciles de procesar. Para
hacerlo se requiere de la implementación de la inteligencia artificial que facilitará
un procesamiento rápido para una justicia inteligente. Este proyecto se desarrolla
inicialmente a través de dos subproyectos: Inteligencia artificial para la eficiencia
de la Justicia (17.1) e Impulso a la Comisión de Codificación (17.2).
Existe una enorme cantidad de información en los ámbitos administrativos y judiciales
que impide una explotación efectiva de la información, dificulta la implementación
de políticas públicas, y desaprovecha las oportunidades de mejora y gestión que
aporta la inteligencia artificial.
El Plan de Acción 2019-2023 relativo a la Justicia en Red Europea contempla como
una de sus piezas fundamentales el avanzar en la aplicación de la inteligencia artificial
en el ámbito de la Justicia definiendo mejor sus implicaciones en dicho ámbito. Para
ello, el Plan establece dos objetivos:
• Definir el papel que podría desempeñar la inteligencia artificial en el ámbito de
la Justicia.
• Desarrollar una herramienta de IA para el análisis de las resoluciones judiciales.
Por otro lado, la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) del Consejo
de Europa, considerando que la inteligencia artificial puede contribuir a mejorar la
eficiencia y calidad del trabajo de los tribunales, ha adoptado el primer texto europeo
que establece principios éticos relacionados con el uso de la inteligencia artificial en
los sistemas judiciales.
En línea con dichas tendencias y como parte del impulso que en materia de
transformación digital quiere poner en práctica el Ministerio de Justicia, se pretende
llevar a cabo las siguientes actuaciones:
• Emplear la inteligencia artificial para la Analítica Avanzada Judicial. Utilizar
los datos contenidos en los documentos e información audiovisual de la
Administración de Justicia, catalogándolos y extrayendo información relevante.

CEPC Inteligencia artificial y administración de justicia 14


• Aprovechar la inteligencia artificial para la mejora en la gestión y el conocimiento,
proporcionando no sólo explotación de información, sino también mejora de
procesos.
• Desarrollos legislativos orientados al dato, regulación inteligente (política
legislativa basada en datos, impacto y litigiosidad asociada a las normas legales,
acciones correctoras, etcétera).
• Posibilitar la traducción automática de normas y resoluciones a lenguas
cooficiales del Estado.
• Implantar una política integral de datos abiertos de la Administración de Justicia;
estructuras y criterios de Justicia Abierta y Acceso al Conocimiento.
En cuanto a la Comisión General de Codificación, es un órgano colegiado con dos
siglos de historia que se ha centrado en la preparación de textos prelegislativos y
de carácter reglamentario para la mejor orientación, preservación y tutela del
ordenamiento jurídico. Los cambios sociales se han acelerado y requieren de una
mejor sincronización de los marcos jurídicos, identificar con rapidez los conflictos y
anticipar los problemas.
La transformación digital crea la oportunidad de mejorar la eficiencia de la Comisión
en sus competencias y sincronizarlas con la realidad en tiempos más cortos. El
objetivo es aprovechar la implementación de herramientas tecnológicas para generar
cuadros de mando que faciliten su tarea.
Los datos provenientes de la gestión del expediente y del lago de datos, así como su
tratamiento con la inteligencia artificial van a permitir desarrollar dos líneas:
• Identificar los conflictos más habituales y las normas que son más citadas con
objeto de disponer de análisis claros para la acción legislativa.
• Armonizar con rapidez los cambios normativos. Esta línea de trabajo en
coordinación con el Ministerio de la Presidencia, Relaciones con las Cortes y
Memoria Democrática que tiene la competencia de armonización legislativa».

Gobierno de España (2021). Carta de Servicios Digitales.


Enlace al documento

6. GARANTÍAS Y EFICACIA
XXVII. Garantía de los derechos en los entornos digitales.
1. Todas las personas tienen derecho a la tutela administrativa y judicial de sus
derechos en los entornos digitales de acuerdo con lo dispuesto en la legislación
vigente.
2. Asimismo, se promoverá la garantía de los derechos reconocidos en esta Carta en
el marco de las relaciones con la Administración de Justicia y, particularmente, los
derechos relacionados con la inteligencia artificial, cuando se recurra a ésta para la
utilización o el desarrollo de sistemas de soporte a las decisiones o de herramientas
de justicia predictiva.
3. Se promoverán mecanismos de autorregulación, control propio y procedimientos
de resolución alternativa de conflictos, con la previsión de incentivos adecuados para
su utilización con arreglo a la normativa vigente.
4. Se promoverá la evaluación de las leyes administrativas y procesales vigentes a fin
de examinar su adecuación al entorno digital y la propuesta en su caso de reformas
oportunas en garantía de los derechos digitales.

Presentada el 2 de diciembre Ministerio de Economía, Comercio y Empresa. Ministerio para la


de 2020 por el Ministerio Transformación Digital y de la Función Pública (2020). Estrategia Nacional
de Asuntos Económicos y de Inteligencia Artificial.
Transformación Digital.
Enlace al documento

CEPC Inteligencia artificial y administración de justicia 15


«EJE ESTRATÉGICO 2. PROMOVER EL DESARROLLO DE CAPACIDADES
DIGITALES, POTENCIAR EL TALENTO NACIONAL Y ATRAER TALENTO GLOBAL EN
INTELIGENCIA ARTIFICIAL.
[…] La Administración Pública debe también sumarse a estos procesos de formación
en materia de IA a lo largo de sus planes de promoción y vida profesional, a nivel
del Estado, Comunidades Autónomas y corporaciones locales. Es importante que
los planes de formación doten al personal de la Administración Pública de los
conocimientos necesarios que les permitan incorporar soluciones basadas en IA, a
todos los niveles, incluyendo las posiciones ejecutivas, para mejorar el servicio a la
ciudadanía. Para ello se estudiará la oferta o colaboración con programas de masters
en IA en el seno del sector público, así como el establecimiento de mecanismos
para una mayor flexibilidad en la atracción, retención, selección y planificación de
personal y prestación del trabajo. En el ámbito del sector tecnológico legal (lawtech-
legaltech) se tendrán en cuenta las posibilidades de capacitación e investigación del
Centro de Estudios Jurídicos del Ministerio de Justicia, con arreglo al modelo de
cogobernanza vigente.
EJE ESTRATÉGICO 3. DESARROLLAR PLATAFORMAS DE DATOS E
INFRAESTRUCTURAS TECNOLÓGICAS PARA DAR SOPORTE A LA IA.
[…] En términos jurídicos se contempla la previsión de políticas de capacitación con
reflejo institucional. En este ámbito cobra importancia la puesta en valor del Centro
de Estudios Jurídicos del Ministerio de Justicia como órgano cuya actividad se oriente
conforme a esa línea estratégica, tanto contemplando sus posibilidades como Digital
Intelligence Hub para el sector legal tecnológico (lawtech-legaltech), como a través
de la genuina actividad formativa en el sector público en materia de IA.
EJE ESTRATÉGICO 5. POTENCIAR EL USO DE LA IA EN LA ADMINISTRACIÓN
PÚBLICA Y EN LAS MISIONES ESTRATÉGICAS NACIONALES.
La relación entre IA y Administración proporciona beneficios mutuos. Por un lado,
la inteligencia artificial es útil para mejorar la transparencia y comunicación de la
actividad pública en los sectores de sanidad y servicios sociales, medio ambiente
y energía, justicia, transporte y logística, educación, empleo y seguridad. A la vez
permite conocer de manera más exacta la sociedad en la que nos encontramos
y determinar las prioridades de actuación, identificando aquellos ámbitos con
ventajas competitivas y aquéllos más desfavorecidos. Por otro lado, la actividad de
la Administración también puede beneficiar a la inteligencia artificial, desplegando
todos sus instrumentos para financiar, promover e integrar la IA en sus procesos.
Todo ello sin olvidar que el beneficio final de todo este proceso es para la ciudadanía.
Es la ciudadanía quien debe monitorizar la actividad de la Administración, sentirla
más cerca y poder usar aplicaciones adaptadas y personalizadas a sus necesidades.
EJE ESTRATÉGICO 6. ESTABLECER UN MARCO ÉTICO Y NORMATIVO QUE
REFUERCE LA PROTECCIÓN DE LOS DERECHOS INDIVIDUALES Y COLECTIVOS, A
EFECTOS DE GARANTIZAR LA INCLUSIÓN Y EL BIENESTAR SOCIAL.
[…] Todo sistema de inteligencia artificial debe respetar los derechos fundamentales,
equidad en el acceso y prevención contra la discriminación, así como también los
derechos del mundo «analógico». También se apostará por un impulso normativo
de revisión y reformas legislativas para la plena habilitación y operatividad del nuevo
escenario tecnológico dentro de un marco democrático. Dicho impulso adquiere en
la Administración de Justicia un valor estratégico añadido, si se tiene en cuenta el
modelo de co-gobernanza vigente en el sector y la importancia de la interoperabilidad
e interconexión de sistemas y aplicaciones».

Ministerio para la Transformación Digital y de la Función Pública.


Secretaría de Estado de Digitalización e Inteligencia Artificial (2020).
España Digital 2026.
Enlace al documento
«La agenda España Digital es la hoja de ruta para la transformación digital del país.
Una estrategia para aprovechar plenamente las nuevas tecnologías y lograr un
crecimiento económico intenso, poniendo a las personas en el centro y alcanzando
a todos los territorios».

CEPC Inteligencia artificial y administración de justicia 16


Se estructura en 12 ejes y 42 medidas, y actúa en tres dimensiones distintas:
Infraestructuras y Tecnologías; Economía; y Personas. A estas tres dimensiones se
le añaden dos ejes transversales, cuyo fin es el impulso de proyectos estratégicos
de gran impacto a través de la colaboración público-privada y la cogobernanza del
Estado y las Comunidades Autónomas.
EJE 5. TRANSFORMACIÓN DIGITAL DEL SECTOR PÚBLICO
Programa
[…] 5. Distribución de fondos a las Comunidades Autónomas para proyectos de
Justicia 2030 (84 M€).
21. PROYECTOS DE ALTO IMPACTO EN LA DIGITALIZACIÓN DEL SECTOR PÚBLICO
Transformación digital de la Administración de Justicia
En el marco del Plan Justicia 2030, se desarrollarán actuaciones que tengan como
objetivos principales: la mejora de los servicios digitales para ciudadanía y empresas;
la creación de un Expediente Judicial Electrónico Sostenible; la facilitación de la
inmediación digital, la fe pública y el teletrabajo; la inteligencia artificial y Justicia
orientada al dato; la modernización de infraestructuras tecnológicas y de redes, y
el fomento de la interoperabilidad (orientada al dato) y ciberseguridad dentro del
Ministerio de Justicia y de la Administración de Justicia».

Ministerio de Justicia (2020). Dirección General de Transformación


Digital de la Administración de Justicia.
Enlace a la página

«Aunque la historia de esta Dirección General comienza en 2001, cuando nació como
Dirección General para la Modernización de la Administración de Justicia, y ha pasado
por diversos avatares desde entonces, es en 2020 cuando adopta su denominación
actual. Bajo la dirección de la Secretaría General para la Innovación y Calidad del
Servicio Público de Justicia, y dentro de proyecto Justicia 2030, su objetivo es estar
al frente del cambio y la innovación tecnológica en su ámbito de actuación, dotando
a la Administración de Justicia de las soluciones tecnológicas más avanzadas con la
finalidad de conseguir una justicia más moderna, eficiente y ágil.
Entre sus fines principales están los de velar por el buen funcionamiento de los
recursos públicos necesarios para el desarrollo y mantenimiento de las aplicaciones
digitales necesarias, facilitar la interoperabilidad e interconexión entre actores y
Administraciones implicadas, o favorecer la cooperación autonómica para desarrollar
las herramientas puestas a disposición de los profesionales de la Administración de
Justicia, en el marco de la llamada cogobernanza2.
[2 El informe “Cogobernanza y cooperación entre Estado y comunidades autónomas
en 2021” del Ministerio de Política Territorial define este término como “una forma
de toma de decisiones o de construcción de políticas públicas propia de sistemas
descentralizados, que busca soluciones a problemas comunes en los que inciden
las competencias de distintos entes territoriales, a través de la negociación y el
acuerdo”.] »

Generalitat de Cataluña (2025). AI4JUSTICE.


Enlace al sitio web del Gobierno de Cataluña (Govern.cat)

Presentación de AI4JUSTICE en el Congreso Gobierno Digital 2025


Una de las presentaciones destacadas que tuvieron lugar durante el Congreso
Govern Digital 2025, celebrado los días 12 y 13 de marzo de este año, es la de
AI4JUSTICE, un proyecto impulsado en el marco de la Estrategia Justicia Digital
2030 y el programa GovTech Catalunya, que hace posible la incorporación
de soluciones innovadoras para hacer frente a los retos de la Administración
pública. Esta iniciativa se enmarca en la decisión de incrementar de hacer más

CEPC Inteligencia artificial y administración de justicia 17


eficiente la Administración de Justicia, y reducir de hacer la justicia más eficiente
y acortar el tiempo empleado por los jueces y magistrados en la resolución de
sentencias.
«La Secretaría de Telecomunicaciones y Transformación Digital, a través del Centro
de Telecomunicaciones y Tecnologías de la Información (CTTI); el Departamento de
Justicia y Calidad Democrática y la empresa Connecthink han co-creado un asistente
inteligente que apoye a los jueces y magistrados a redactar sentencias a partir de
búsquedas semánticas dentro de sentencias previas del propio juez o jurisprudencia
existente. Esta herramienta está orientada, en una primera fase, a procedimientos que
no requieren interpretaciones jurídicas complejas y, por tanto, en las que sea factible
la aplicación de automatismos y actuaciones asistidas (por ejemplo, reclamaciones de
cláusulas suelo o reclamaciones sobre tráfico aéreo).
El asistente ha dado resultados significativos en lo que se refiere a la eficiencia.
Actualmente, una sentencia de estas tipologías requiere unas dos horas de trabajo
de un magistrado; en cambio, con la nueva herramienta ese tiempo se reduce a 20
minutos. Si un juez resuelve 30 sentencias al mes, anualmente 20 jueces ganarían
12.000 horas que podrían dedicarse a otras tareas. Teniendo en cuenta que el coste
medio estimado de un magistrado es de 46€/hora, supondría poder destinar unos
552.000€ a otras tareas, por 20 jueces».

Generalitat de Cataluña. Departamento de Derechos, Justicia y Memoria


(2009). Protocolo de valoración del riesgo (RisCanvi).
Enlace a la página

«La evaluación y gestión del riesgo mediante instrumentos basados en la evidencia


científica es uno de los componentes fundamentales del modelo de intervención que
más aval tiene hoy en día de la comunidad científica y las instituciones. Los servicios
penitenciarios catalanes trabajan sobre este modelo fundamentado en la evaluación
y gestión del riesgo, situándose así en primera línea de los países de Europa.
RisCanvi nació de la voluntad del Departamento de dar respuesta a la preocupación
social creciente en relación con la reincidencia delictiva violenta, así como de la
necesidad de mejorar la tecnificación y cualificación de los profesionales responsables
de la ejecución penal en Cataluña.
El objetivo de RisCanvi, un proyecto pionero en España, es dar respuesta a la
evaluación y gestión del riesgo del conjunto de la población penitenciaria catalana
(centros penitenciarios de régimen ordinario y abierto y también de liberados
condicionales).
Desde 2009, la herramienta es utilizada de forma habitual por los equipos de los
centros penitenciarios. Ofrece soporte a los procesos de toma de decisiones,
principalmente en lo que tiene que ver con la planificación de la intervención (evalúa
las necesidades de cada interno y permite orientar el diseño de su programa individual
de tratamiento para cumplir con el itinerario de reinserción), la clasificación y la
concesión de permisos, dado que orienta de manera estructurada y profesionalizada
los debates sobre estas decisiones. Por ello, la aplicación de este protocolo y los
resultados que aporta deben cumplir todas las garantías metodológicas.
RisCanvi se ha diseñado e implantado conjuntamente entre los servicios penitenciarios
catalanes, el Grupo de Estudios Avanzados en Violencia de la Universidad de Barcelona
y el Centro de Estudios Jurídicos y Formación Especializada».
En cuanto a su funcionamiento, en origen el algoritmo se planteó como un modelo
de Suma Ponderada, es decir, como una combinación lineal de las variables de
entrada con unos pesos asignados a cada variable a partir del conocimiento
experto. Para determinar los niveles de riesgo por cada escala (Alto-Bajo o Alto-
Medio-Bajo), se eligieron unos puntos de corte sobre la puntuación de salida
del algoritmo. En 2011, se ajustaron estos puntos de corte para mejorar las
predicciones.

CEPC Inteligencia artificial y administración de justicia 18


En 2017 se introdujo un nuevo algoritmo de predicción de riesgo conocido como
Regresión Logística, que forma parte del conjunto de algoritmos de inteligencia
artificial y, al igual que el modelo de Suma Ponderada, utiliza una serie de puntos
de corte para separar los distintos niveles de riesgo.
Actualmente, el modelo de Regresión Logística se aplica para predecir el riesgo
de Reincidencia General y Rotura de Condena mientras que el modelo de Suma
Ponderada se aplica para predecir el riesgo de Violencia Intrainstitucional,
Reincidencia Violenta y Violencia Autodirigida. (Fuente: Informe Tiresias.
Auditoria de l’algorisme RisCanvi. 9 de enero de 2024).

CEPC Inteligencia artificial y administración de justicia 19


2
Legislación e iniciativas en el
ámbito internacional

CEPC Inteligencia artificial y administración de justicia 20


Instituciones supranacionales

ONU
Fuentes:
Diario La Ley
Organización de las Naciones Unidas

Biblioteca Digital de
las Naciones Unidas Gobernanza de la Inteligencia Artificial en beneficio de la humanidad.
Informe final.
Enlace al documento

Resolución aprobada por la Asamblea General el 21 de marzo de 2024:


Aprovechar las oportunidades de sistemas seguros y fiables de inteligencia
artificial para el desarrollo sostenible.
Enlace al documento

Esta resolución, respaldada por más de 120 estados miembros de la Organización


de las Naciones Unidas, se dirige tanto a los organismos públicos como al sector
privado. Sostiene que para avanzar en el proceso de transformación digital de
la sociedad es crucial el desarrollo de sistemas de Inteligencia artificial que
se demuestren seguros y fiables. Señala entre sus fines la consecución de los 17
Objetivos de Desarrollo Sostenible de la Agenda 2030 en sus tres dimensiones:
económica, social y ambiental, y defiende que en el desarrollo de la IA se
priorice el respeto y la promoción de los derechos humanos y de las libertades
fundamentales. No obstante también postula la importancia de establecer
algunos límites, basados en el rechazo de cualquier sistema de inteligencia
artificial que no permita operar de acuerdo con el derecho internacional, o que
no respete los derechos humanos. Asimismo pone el foco en la importancia de
los datos como elemento esencial para el funcionamiento de la IA, instando a
los países miembros de la organización a promover la cooperación en lo que a la
gobernanza de los datos se refiere.

Fuentes:
UNESCO
UNESCO: Inteligencia Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura
Artificial
UNESDOC. Bibliothèque
numérique
Directrices de la UNESCO para el uso de sistemas de inteligencia artificial
en juzgados y tribunales (2024).
Enlace al documento

> Resumen
Las Directrices de la UNESCO para el uso de sistemas de IA en juzgados y
tribunales ofrecen orientación sobre las medidas que el sector judicial podría
considerar para mejorar sus capacidades en el contexto de la transformación
digital. Proponen principios y recomendaciones para desplegar y utilizar
herramientas de Inteligencia Artificial en apoyo de la administración de justicia.
Además, proporcionan orientación a las organizaciones del poder judicial, como
juzgados y tribunales, y a las personas que forman parte de estas organizaciones
judiciales, incluidos magistrados, jueces, funcionarios judiciales y personal de
apoyo judicial.)

CEPC Inteligencia artificial y administración de justicia 21


Kit de herramientas global sobre IA y el Estado de derecho para el poder
judicial.
Enlace al documento

> Resumen
El «Kit de herramientas mundial sobre la IA y el Estado de derecho» para el Poder
Judicial… proporciona a los actores judiciales (jueces, fiscales, fiscales estatales,
abogados públicos, universidades de derecho e instituciones de formación judicial)
el conocimiento y las herramientas necesarias para comprender los beneficios y
riesgos de la IA en su trabajo. Ayudará a los actores judiciales a mitigar los posibles
riesgos de la IA para los derechos humanos al brindar orientación sobre las leyes,
principios, normas y jurisprudencia internacional de derechos humanos relevantes
que sustentan el uso ético de la IA.

AI and the Rule of Law: Capacity Building for Judicial Systems. (La IA y
el Estado de derecho: Fortalecimiento de capacidades para los sistemas
judiciales).
Enlace al sitio

Role of Judicial Actors in AI Governance


As the use of AI technologies advances, judicial systems are being engaged in legal
questions concerning the implications of AI for human rights, surveillance and liability,
among others. In addition, judicial systems are also using AI systems for judicial
decision-making processes that have raised concerns for fairness, accountability and
transparency in decision making by automated or AI-enabled systems.
The potential of AI is already being explored by many judicial systems that include the
judiciary, prosecution services and other domain specific judicial bodies, around the
world, in the criminal justice field, providing investigative assistance and automating/
facilitating decision-making processes.
Nevertheless, the use of AI poses a wide range of challenges to be addressed:
from pattern recognition, to ethics,biased decisions taken by AI-based algorithms,
transparency and accountability. Self-learning algorithms, for instance, may be
trained by certain data sets (previous decisions, facial images or video databases,
etc.) that may contain biased data that can be used by applications for criminal or
public safety purposes, leading to biased decisions.
Considering rapid developments in this field, the challenges and opportunities related
to harnessing AI in the field of justice and how AI-based systems can help judicial
actors in their roles within the administration of justice and to handle cases involving
AI that impacts human rights must form part of discussions among stakeholders
from the judicial ecosystem. […]

> TRADUCCIÓN

El papel de los actores judiciales en la gobernanza de la IA


A medida que avanza el uso de las tecnologías de IA, los sistemas judiciales se
enfrentan a cuestiones jurídicas relativas a las implicaciones de la IA con respecto
a los derechos humanos, la vigilancia y la responsabilidad, entre otras. Además, los
sistemas judiciales también están utilizando sistemas de IA para los procesos de
toma de decisiones judiciales, lo que ha suscitado preocupación por la imparcialidad,
la rendición de cuentas y la transparencia en la toma de decisiones por parte de
sistemas automatizados o basados en IA.
El potencial de la IA ya está siendo explorado por muchos sistemas judiciales de
todo el mundo, entre los que se incluyen la judicatura, la fiscalía y otros organismos
judiciales específicos, en el ámbito de la justicia penal, proporcionando asistencia en
la investigación y automatizando/facilitando los procesos de toma de decisiones.

CEPC Inteligencia artificial y administración de justicia 22


No obstante, el uso de la IA plantea una amplia gama de retos que deben abordarse:
desde el reconocimiento de patrones hasta la ética, pasando por las decisiones
sesgadas tomadas por algoritmos basados en IA, la transparencia y la rendición de
cuentas. Los algoritmos de autoaprendizaje, por ejemplo, pueden ser entrenados
por determinados conjuntos de datos (decisiones anteriores, imágenes faciales o
bases de datos de vídeo, etc.) que pueden contener datos sesgados que pueden ser
utilizados por aplicaciones con fines delictivos o de seguridad pública, dando lugar a
decisiones sesgadas.
Teniendo en cuenta la rápida evolución en este campo, los retos y oportunidades
relacionados con el aprovechamiento de la IA en el ámbito de la justicia y el modo
en que los sistemas basados en la IA pueden ayudar a los actores judiciales en sus
funciones dentro de la administración de justicia y a gestionar los casos relacionados
con la IA que afectan a los derechos humanos deben formar parte de los debates
entre las partes interesadas del ecosistema judicial. […].

Recomendación sobre la Ética de la Inteligencia Artificial (2021).


Enlace al documento

En marzo de 2020, se constituyó en el seno de la UNESCO el Grupo de Expertos


Ad Hoc (GEAH), formado por 24 especialistas de notoriedad con conocimientos
multidisciplinares y pluralistas sobre la ética de la inteligencia artificial.
Elaboraron un documento de trabajo que les proporcionó información de fondo
como punto de partida de sus reflexiones. La primera versión del proyecto de
texto de la Recomendación fue preparada por el GEAH en mayo de 2020, y se
sometió a un amplio proceso de consultas con múltiples interesados desde
finales de junio hasta principios de agosto de 2020.
El GEAH comenzó a examinar los comentarios recibidos durante el proceso
de consulta a partir de mediados de agosto y se reunió virtualmente del 31 de
agosto al 4 de septiembre de 2020 para revisar la primera versión del proyecto
de texto. Durante esa semana, más de 100 observadores de 43 Estados Miembros
y de entidades de Naciones Unidas y otras entidades intergubernamentales, así
como de ONG se inscribieron para observar la reunión.
Esta labor culminó con la finalización de un primer proyecto de la Recomendación
por parte del GEAH el 7 de septiembre de 2020.
Los principios que señala son los de proporcionalidad y no perjuicio, seguridad,
equidad y no discriminación, sostenibilidad, privacidad, supervisión humana
y determinación, transparencia y trazabilidad, responsabilidad, gobierno
adaptativo y colaboración, y en lo que a la Administración de Justicia se refiere,
establece:
Member States should provide mechanisms for human rights and for social and
economic impact of AI monitoring and oversight, and other governance mechanisms
such as independent data protection authorities, sectoral oversight, public bodies
for the oversight of acquisition of AI systems for human rights sensitive use cases,
such as criminal justice, law enforcement, welfare, employment, health care, among
others, and independent judiciary systems.

> TRADUCCIÓN

Los Estados miembros deben establecer mecanismos de vigilancia y supervisión de


los derechos humanos y del impacto social y económico de la IA, así como otros
mecanismos de gobernanza, como autoridades independientes de protección de
datos, supervisión sectorial, organismos públicos para la supervisión de la adquisición
de sistemas de IA para casos de uso sensibles a los derechos humanos, como la justicia
penal, la aplicación de la ley, el bienestar, el empleo, la atención sanitaria, entre otros,
y sistemas judiciales independientes.

CEPC Inteligencia artificial y administración de justicia 23


Fuentes:
OCDE
OCDE. Legal instruments
Organización para la cooperación y el desarrollo.
Diario La Ley

Principios de la OCDE sobre la Inteligencia Artificial (2019).


Enlace al documento

El 22 de Mayo de 2019, la Organización para la Cooperación y el Desarrollo Económicos


y los 36 países socios, junto con Argentina, Brasil, Colombia, Costa Rica, Perú y Rumanía
adoptaron el primer conjunto de directrices de políticas intergubernamentales sobre
Inteligencia Artificial.
Los Principios comprenden cinco puntos basados en valores para el despliegue
responsable de una IA fiable y cinco recomendaciones en materia de políticas públicas
y cooperación internacional. No se trata de una norma jurídicamente vinculante,
pero funciona como base o guía para el uso de sistemas basados en la Inteligencia
Artificial.
Señalan, en resumen, que la IA debe está al servicio de las personas y del planeta,
impulsando un crecimiento inclusivo, el desarrollo sostenible y el bienestar, que los
sistemas de IA deben diseñarse de manera que respeten el Estado de derecho, los
derechos humanos, los valores democráticos y la diversidad, que deben de estar
presididos por la transparencia y una divulgación responsable, que funcionen con
robustez, de manera fiable y segura durante toda su vida útil, y los potenciales riesgos
deberán evaluarse y gestionarse en todo momento, respondiendo de su correcto
funcionamiento las organizaciones y las personas que las desarrollen, desplieguen
o gestionen.
Se recomienda por la OCDE a los Gobiernos facilitar la inversión en I+D que
estimule la innovación en una IA fiable, fomentar ecosistemas de IA accesibles con
Nota:
tecnologías e infraestructuras digitales y mecanismos para el intercambio de datos
El documento fue actualizado y conocimientos, así como desarrollar un entorno de políticas que allane el camino
el 3 de mayo de 2024. para el despliegue de unos sistemas de IA fiables, capacitar a las personas y apoyar
a los trabajadores, y cooperar en la puesta en común de información entre países y
sectores, desarrollar estándares y asegurar una administración responsable de la IA.
(C. Lorenzo Pérez, p. 17).

Unión Europea

Fuentes: Normativa, iniciativas e información complementaria


Parlamento Europeo > Introducción
Sitio web de la En 2018 la Comisión Europea publicó el documento «Inteligencia artificial
Comisión Europea
para Europa. Comunicación de la Comisión al Parlamento Europeo, al Consejo
Diario Oficial de la Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las
Unión Europea Regiones, del 25 de abril de 2018». En él se instaba a la Unión Europea a adoptar
un planteamiento coordinado que le permitiera aprovechar al máximo las
oportunidades de la inteligencia artificial y abordar los nuevos retos inherentes
a ella. Ese mismo año se publicó el Plan Coordinado sobre Inteligencia Artificial
que tenía por objeto acelerar la inversión en IA, aplicar estrategias y programas
de IA y armonizar la política de IA para evitar la fragmentación en Europa.
El Consejo de Europa puso también en marcha el Comité Ad-hoc para la
Inteligencia Artificial (AI), que estuvo trabajando hasta 2021 con el fin de
analizar la viabilidad y los elementos que deberían integrar el marco legal para
el desarrollo, diseño y aplicación de la IA de acuerdo con los estándares de del
Consejo de Europa en derechos humanos, democracia y estado de derecho. El
21 de abril de ese año se publicó la Propuesta de Reglamento del Parlamento
Europeo y del Consejo por el que se establecen normas armonizadas en
materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican
determinados actos legislativos de la Unión.

CEPC Inteligencia artificial y administración de justicia 24


El 24 de enero de 2024 se crea por Decisión de la Comisión, la Oficina Europea
de Inteligencia Artificial, y dos días después se da a conocer el Borrador final
de la Ley de Inteligencia Artificial de la UE (EU Artificial Intelligence Act), que
viene a proporcionar el sustrato legal a la utilización de la IA en el seno de la
UE. Finalmente, la ley se publica mediante Resolución legislativa del Parlamento
Europeo como el Reglamento (UE) 2024/1689 Del Parlamento Europeo y del
Consejo de 13 de junio de 2024.

Nota:
Se ha extraído del Reglamento Reglamento de Inteligencia Artificial
de Inteligencia Artificial
lo que se relaciona más
P9_TA(2024)0138 Reglamento de Inteligencia Artificial
directamente con la Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio
Administración de Justicia.
de 2024, por el que se establecen normas armonizadas en materia de inteligencia
artificial y por el que se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.°
167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y
las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de
Inteligencia Artificial). Diario Oficial de la Unión Europea, 12 de julio de 2024,
serie L.
Enlace al documento

[…] El objetivo del presente Reglamento es mejorar el funcionamiento del mercado


interior mediante el establecimiento de un marco jurídico uniforme, en particular para
el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de
sistemas de inteligencia artificial («sistemas de IA») en la Unión, de conformidad con
los valores de la Unión, a fin de promover la adopción de una inteligencia artificial (IA)
centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de
protección de la salud, la seguridad y los derechos fundamentales consagrados en la
Carta de los Derechos Fundamentales de la Unión Europea (la «Carta»), en particular
la democracia, el Estado de Derecho y la protección del medio ambiente, frente a
los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a
la innovación. El presente Reglamento garantiza la libre circulación transfronteriza
de mercancías y servicios basados en la inteligencia artificial, con lo que impide que
los Estados miembros impongan restricciones al desarrollo, la comercialización y
la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice
expresamente.
Considerandos importantes para el uso de Inteligencia Artificial en temas judiciales
(32) El uso de sistemas de IA para la identificación biométrica remota «en tiempo
real» de personas físicas en espacios de acceso público con fines de aplicación de la
ley invade de forma especialmente grave los derechos y las libertades de las personas
afectadas, en la medida en que puede afectar a la vida privada de una gran parte de
la población, provocar la sensación de estar bajo una vigilancia constante y disuadir
indirectamente a los ciudadanos de ejercer su libertad de reunión y otros derechos
fundamentales. Las imprecisiones técnicas de los sistemas de IA destinados a la
identificación biométrica remota de las personas físicas pueden dar lugar a resultados
sesgados y tener un efecto discriminatorio. Estos posibles resultados sesgados y
efectos discriminatorios son especialmente pertinentes por lo que respecta a la edad,
la etnia, la raza, el sexo o la discapacidad. Además, la inmediatez de las consecuencias
y las escasas oportunidades para realizar comprobaciones o correcciones adicionales
en relación con el uso de sistemas que operan «en tiempo real» acrecientan el riesgo
que estos conllevan para los derechos y las libertades de las personas afectadas por
las actividades de aplicación de la ley.
(33) En consecuencia, debe prohibirse el uso de dichos sistemas con fines de aplicación
de la ley, salvo en situaciones enumeradas de manera limitativa y definidas con
precisión en las que su utilización sea estrictamente necesaria para lograr un interés
público esencial cuya importancia compense los riesgos. Estas situaciones son la
búsqueda de determinadas víctimas de un delito, incluidas personas desaparecidas;
determinadas amenazas para la vida o para la seguridad física de las personas físicas
o amenazas de atentado terrorista; y la localización o identificación de los autores
o sospechosos de las infracciones penales enumeradas en un anexo del presente

CEPC Inteligencia artificial y administración de justicia 25


Reglamento, cuando dichas infracciones se castiguen con una pena o una medida
de seguridad privativas de libertad cuya duración máxima sea de al menos cuatro
años en el Estado miembro de que se trate de conformidad con el Derecho de dicho
Estado miembro. Fijar ese umbral para la pena o la medida de seguridad privativas
de libertad con arreglo al Derecho nacional contribuye a garantizar que la infracción
sea lo suficientemente grave como para llegar a justificar el uso de sistemas de
identificación biométrica remota «en tiempo real».
Por otro lado, esas infracciones penales se basan en los treinta y dos delitos
enumerados en la Decisión Marco 2002/584/JAI del Consejo, si bien es preciso
tener en cuenta que, en la práctica, es probable que algunas sean más relevantes que
otras en el sentido de que es previsible que recurrir a la identificación biométrica
remota «en tiempo real» sea necesario y proporcionado en grados muy distintos
para llevar a cabo la localización o la identificación de los autores o sospechosos de
las distintas infracciones enumeradas, y que es probable que haya diferencias en la
gravedad, la probabilidad y la magnitud de los perjuicios o las posibles consecuencias
negativas. Una amenaza inminente para la vida o la seguridad física de las personas
físicas también podría derivarse de una perturbación grave de infraestructuras
críticas, tal como se definen en el artículo 2, punto 4, de la Directiva (UE) 2022/2557
del Parlamento Europeo y del Consejo, cuando la perturbación o destrucción de
dichas infraestructuras críticas suponga una amenaza inminente para la vida o la
seguridad física de una persona, en particular al perjudicar gravemente el suministro
de productos básicos a la población o el ejercicio de la función esencial del Estado.
Además, el presente Reglamento debe preservar la capacidad de las autoridades
encargadas de la aplicación de la ley, de control fronterizo, de la inmigración o del
asilo para llevar a cabo controles de identidad en presencia de la persona afectada,
de conformidad con las condiciones establecidas en el Derecho de la Unión y en
el Derecho nacional para estos controles. En particular, las autoridades encargadas
de la aplicación de la ley, del control fronterizo, de la inmigración o del asilo deben
poder utilizar sistemas de información, de conformidad con el Derecho de la Unión
o el Derecho nacional, para identificar a las personas que, durante un control de
identidad, se nieguen a ser identificadas o no puedan declarar o demostrar su
identidad, sin que el presente Reglamento exija que se obtenga una autorización
previa. Puede tratarse, por ejemplo, de una persona implicada en un delito que no
quiera revelar su identidad a las autoridades encargadas de la aplicación de la ley, o
que no pueda hacerlo debido a un accidente o a una afección médica.
(34) Para velar por que dichos sistemas se utilicen de manera responsable y
proporcionada, también es importante establecer que, en esas situaciones enumeradas
de manera limitativa y definidas con precisión, se tengan en cuenta determinados
elementos, en particular en lo que se refiere a la naturaleza de la situación que dé
lugar a la solicitud, a las consecuencias que su uso puede tener sobre los derechos
y las libertades de todas las personas implicadas, y a las garantías y condiciones que
acompañen a su uso. Además, el uso de sistemas de identificación biométrica remota
«en tiempo real» en espacios de acceso público con fines de aplicación de la ley debe
llevarse a cabo únicamente para confirmar la identidad de la persona que constituya
el objetivo específico y limitarse a lo estrictamente necesario en lo que se refiere al
período de tiempo, así como al ámbito geográfico y personal, teniendo en cuenta, en
particular, las pruebas o indicios relativos a las amenazas, las víctimas o los autores.
El uso del sistema de identificación biométrica remota en tiempo real en espacios
de acceso público solo debe autorizarse si la correspondiente autoridad encargada
de la aplicación de la ley ha llevado a cabo una evaluación de impacto relativa a los
derechos fundamentales y, salvo que se estipule otra cosa en el presente Reglamento,
si ha registrado el sistema en la base de datos establecida en el presente Reglamento.
La base de datos de personas de referencia debe ser adecuada para cada supuesto de
uso en cada una de las situaciones antes mencionadas.
(35) Todo uso de un sistema de identificación biométrica remota «en tiempo real»
en espacios de acceso público con fines de aplicación de la ley debe haber sido
autorizado de manera expresa y específica por una autoridad judicial o por una
autoridad administrativa independiente y cuya decisión sea vinculante de un Estado
miembro. En principio, dicha autorización debe obtenerse antes de utilizar el sistema
de IA con el fin de identificar a una o varias personas. Deben permitirse excepciones
a esta norma en situaciones debidamente justificadas por motivos de urgencia, es
decir, en aquellas en las que la necesidad de utilizar los sistemas en cuestión sea tan
imperiosa que resulte efectiva y objetivamente imposible obtener una autorización

CEPC Inteligencia artificial y administración de justicia 26


antes de iniciar el uso del sistema de IA. En tales situaciones de urgencia, el uso
debe limitarse al mínimo imprescindible y satisfacer las garantías y condiciones
oportunas, conforme a lo estipulado en el Derecho nacional y según corresponda en
cada supuesto concreto de uso urgente por parte de la propia autoridad encargada
de la aplicación de la ley. Además, en esas situaciones las autoridades encargadas
de la aplicación de la ley deben solicitar dicha autorización e indicar los motivos
por los que no han podido hacerlo antes, sin demora indebida y, como máximo,
en un plazo de veinticuatro horas. Si se rechaza dicha autorización, el uso de
sistemas de identificación biométrica en tiempo real vinculados a la autorización
debe interrumpirse con efecto inmediato y todos los datos relacionados con dicho
uso deben desecharse y suprimirse. Entre esos datos se incluye la información
de entrada directamente adquirida por un sistema de IA durante el uso de dicho
sistema, así como los resultados y la información de salida del uso vinculados a dicha
autorización. No debe incluir la información de entrada adquirida legalmente de
conformidad con otro acto del Derecho nacional o de la Unión. En cualquier caso,
no debe adoptarse ninguna decisión que produzca efectos jurídicos adversos para
una persona exclusivamente sobre la base de la información de salida del sistema de
identificación biométrica remota.
(36) A fin de desempeñar sus funciones de conformidad con los requisitos establecidos
en el presente Reglamento, así como en las normas nacionales, debe notificarse
a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de
protección de datos cada uso del sistema de identificación biométrica en tiempo real.
Las autoridades nacionales de vigilancia del mercado y las autoridades nacionales
de protección de datos que hayan recibido una notificación deben presentar a la
Comisión un informe anual sobre el uso de sistemas de identificación biométrica en
tiempo real.
(37) Por otro lado, conviene estipular, en el marco exhaustivo que establece este
Reglamento, que dicho uso en el territorio de un Estado miembro conforme a lo
dispuesto en el presente Reglamento solo debe ser posible cuando el Estado
miembro en cuestión haya decidido contemplar expresamente la posibilidad de
autorizarlo en las normas detalladas de su Derecho nacional, y en la medida en que lo
haya contemplado. En consecuencia, con arreglo al presente Reglamento los Estados
miembros siguen teniendo la libertad de no ofrecer esta posibilidad en absoluto o de
ofrecerla únicamente en relación con algunos de los objetivos que pueden justificar
un uso autorizado conforme al presente Reglamento. Dichas normas nacionales
deben notificarse a la Comisión en un plazo de treinta días a partir de su adopción.
(38) La utilización de sistemas de IA para la identificación biométrica remota en
tiempo real de personas físicas en espacios de acceso público con fines de aplicación
de la ley implica, necesariamente, el tratamiento de datos biométricos. Las normas
del presente Reglamento que prohiben, con algunas excepciones, ese uso, basadas
en el artículo 16 del TFUE, deben aplicarse como lex specialis con respecto a las
normas sobre el tratamiento de datos biométricos que figuran en el artículo 10 de
la Directiva (UE) 2016/680, con lo que se regula de manera exhaustiva dicho uso
y el tratamiento de los correspondientes datos biométricos. Por lo tanto, ese uso y
tratamiento deben ser posibles únicamente en la medida en que sean compatibles
con el marco establecido por el presente Reglamento, sin que haya margen, fuera
de dicho marco, para que las autoridades competentes, cuando actúen con fines de
aplicación de la ley, utilicen tales sistemas y traten dichos datos en los supuestos
previstos en el artículo 10 de la Directiva (UE) 2016/680. En este sentido, el presente
Reglamento no pretende proporcionar la base jurídica para el tratamiento de datos
personales en virtud del artículo 8 de la Directiva (UE) 2016/680. Sin embargo, el
uso de sistemas de identificación biométrica remota en tiempo real en espacios de
acceso público con fines distintos de la aplicación de la ley, incluso por parte de las
autoridades competentes, no debe estar sujeto al marco específico establecido por
el presente Reglamento en lo que respecta al uso de dichos sistemas con fines de
aplicación de la ley. Por consiguiente, su uso con fines distintos de la aplicación de
la ley no debe estar sujeto al requisito de obtener una autorización prevista en el
presente Reglamento ni a las normas de desarrollo aplicables del Derecho nacional
que puedan hacer efectiva dicha autorización.
(39) Todo tratamiento de datos biométricos y de datos personales de otra índole
asociado al uso de sistemas de IA para la identificación biométrica, salvo el asociado
al uso de sistemas de identificación biométrica remota en tiempo real en espacios de

CEPC Inteligencia artificial y administración de justicia 27


acceso público con fines de aplicación de la ley regulado por el presente Reglamento,
debe seguir cumpliendo todos los requisitos derivados del artículo 10 de la Directiva
(UE) 2016/680. El artículo 9, apartado 1, del Reglamento (UE) 2016/679 y el artículo
10, apartado 1, del Reglamento (UE) 2018/1725 prohíben el tratamiento de datos
biométricos con fines distintos de la aplicación de la ley, con las excepciones
limitadas previstas en dichos artículos. En la aplicación del artículo 9, apartado 1, del
Reglamento (UE) 2016/679, el uso de la identificación biométrica remota para fines
distintos de la aplicación de la ley ya ha sido objeto de decisiones de prohibición por
parte de las autoridades nacionales de protección de datos.
(40) De conformidad con el artículo 6 bis del Protocolo n.º 21 sobre la Posición del
Reino Unido y de Irlanda respecto del Espacio de Libertad, Seguridad y Justicia,
anejo al TUE y al TFUE, las normas establecidas en el artículo 5, apartado 1, letra c),
en la medida en que se aplica al uso de sistemas para la categorización biométrica
de actividades en el ámbito de la cooperación policial y la cooperación judicial en
materia penal; el artículo 5, apartado 1, letras e) y f), en la medida en que se aplican
al uso de sistemas de IA comprendidos en el ámbito de aplicación de dicho artículo;
el artículo 5, apartados 3 a 8, y el artículo 26, apartado 10, del presente Reglamento,
adoptadas basándose en el artículo 16 del TFUE que se refieran al tratamiento de
datos de carácter personal por los Estados miembros en el ejercicio de las actividades
comprendidas en el ámbito de aplicación de la tercera parte, título V, capítulos 4 o
5, de dicho Tratado solo serán vinculantes para Irlanda en la medida en que sean
vinculantes para este Estado normas de la Unión que regulen formas de cooperación
judicial en materia penal y de cooperación policial en cuyo marco deban respetarse
las disposiciones establecidas basándose en el artículo 16 del TFUE.
[…]
(42) En consonancia con la presunción de inocencia, las personas físicas de la Unión
siempre deben ser juzgadas basándose en su comportamiento real. Las personas
físicas nunca deben ser juzgadas a partir de comportamientos predichos por una IA
basados únicamente en la elaboración de sus perfiles, en los rasgos o características
de su personalidad, como la nacionalidad, el lugar de nacimiento, el lugar de
residencia, el número de hijos, el nivel de endeudamiento o el tipo de vehículo, sin
una evaluación humana y sin que exista una sospecha razonable, basada en hechos
objetivos comprobables, de que dicha persona está implicada en una actividad
delictiva. Por lo tanto, deben prohibirse las evaluaciones de riesgos realizadas con
respecto a personas físicas para evaluar el riesgo de que cometan una infracción
o para predecir la comisión de una infracción penal real o potencial basándose
únicamente en la elaboración de perfiles de esas personas físicas o la evaluación de
los rasgos y características de su personalidad. En cualquier caso, dicha prohibición
no se refiere o atañe a los análisis de riesgos que no estén basados en la elaboración
de perfiles de personas o en los rasgos y características de la personalidad de las
personas, como los sistemas de IA que utilizan los análisis de riesgos para evaluar
el riesgo fraude financiero por parte de empresas sobre la base de transacciones
sospechosas o las herramientas de análisis de riesgo para predecir la probabilidad
de localización de estupefacientes y mercancías ilícitas por parte de las autoridades
aduaneras, por ejemplo basándose en las rutas de tráfico conocidas.
(43) La introducción en el mercado, la puesta en servicio para este fin concreto o la
utilización de sistemas de IA que creen o amplíen bases de datos de reconocimiento
facial mediante la extracción no selectiva de imágenes faciales a partir de internet
o de imágenes de circuito cerrado de televisión deben estar prohibidas, pues estas
prácticas agravan el sentimiento de vigilancia masiva y pueden dar lugar a graves
violaciones de los derechos fundamentales, incluido el derecho a la intimidad.
(44) Existe una gran preocupación respecto a la base científica de los sistemas de IA
que procuran detectar o deducir las emociones, especialmente porque la expresión
de las emociones varía de forma considerable entre culturas y situaciones, e incluso
en una misma persona. Algunas de las deficiencias principales de estos sistemas son
la fiabilidad limitada, la falta de especificidad y la limitada posibilidad de generalizar.
Por consiguiente, los sistemas de IA que detectan o deducen las emociones o las
intenciones de las personas físicas a partir de sus datos biométricos pueden tener
resultados discriminatorios y pueden invadir los derechos y las libertades de las
personas afectadas. Teniendo en cuenta el desequilibrio de poder en el contexto
laboral o educativo, unido al carácter intrusivo de estos sistemas, dichos sistemas
podrían dar lugar a un trato perjudicial o desfavorable de determinadas personas

CEPC Inteligencia artificial y administración de justicia 28


físicas o colectivos enteros. Por tanto, debe prohibirse la introducción en el mercado,
la puesta en servicio y el uso de sistemas de IA destinados a ser utilizados para
detectar el estado emocional de las personas en situaciones relacionadas con el lugar
de trabajo y el ámbito educativo. Dicha prohibición no debe aplicarse a los sistemas
de IA introducidos en el mercado estrictamente con fines médicos o de seguridad,
como los sistemas destinados a un uso terapéutico.
(45) El presente Reglamento no debe afectar a las prácticas prohibidas por el Derecho
de la Unión, incluido el Derecho de la Unión en materia de protección de datos, de no
discriminación, de protección de los consumidores y sobre competencia.
[…]
(54) Dado que los datos biométricos constituyen una categoría especial de datos
personales sensibles, procede clasificar como de alto riesgo varios casos de uso
críticos de sistemas biométricos, en la medida que su utilización esté permitida con
arreglo al Derecho de la Unión y nacional pertinente. Las imprecisiones técnicas de
los sistemas de IA destinados a la identificación biométrica remota de las personas
físicas pueden dar lugar a resultados sesgados y tener un efecto discriminatorio. El
riesgo de estos resultados sesgados y efectos discriminatorios son especialmente
pertinentes por lo que respecta a la edad, la etnia, la raza, el sexo o la discapacidad.
Por lo tanto, los sistemas de identificación biométrica remota deben clasificarse
como de alto riesgo debido a los riesgos que entrañan. Quedan excluidos de esta
clasificación los sistemas de IA destinados a la verificación biométrica, que comprende
la autenticación, cuyo único propósito es confirmar que una persona física concreta
es quien dice ser, así como confirmar la identidad de una persona física con la
finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o
tenga un acceso seguro a un local. Además, deben clasificarse como de alto riesgo los
sistemas de IA destinados a ser utilizados para la categorización biométrica conforme
a atributos o características sensibles protegidos en virtud del artículo 9, apartado
1, del Reglamento (UE) 2016/679 sobre la base de datos biométricos, en la medida en
que no estén prohibidos en virtud del presente Reglamento, así como los sistemas
de reconocimiento de emociones que no estén prohibidos con arreglo al presente
Reglamento. Los sistemas biométricos destinados a ser utilizados exclusivamente
a efectos de posibilitar la ciberseguridad y las medidas de protección de los datos
personales no deben considerarse sistemas de alto riesgo.
[…]
(59) Dado su papel y su responsabilidad, las actuaciones de las autoridades encargadas
de la aplicación de la ley que implican determinados usos de los sistemas de IA
se caracterizan por un importante desequilibrio de poder y pueden dar lugar a la
vigilancia, la detención o la privación de libertad de una persona física, así como
tener otros efectos negativos sobre los derechos fundamentales consagrados en la
Carta. En particular, si el sistema de IA no está entrenado con datos de buena calidad,
no cumple los requisitos adecuados en términos de rendimiento, de precisión o de
solidez, o no se diseña y prueba debidamente antes de introducirlo en el mercado
o ponerlo en servicio, es posible que señale a personas de manera discriminatoria,
incorrecta o injusta. Además, podría impedir el ejercicio de importantes derechos
procesales fundamentales, como el derecho a la tutela judicial efectiva y a un juez
imparcial, así como el derecho a la defensa y a la presunción de inocencia, sobre
todo cuando dichos sistemas de IA no sean lo suficientemente transparentes y
explicables ni estén suficientemente bien documentados. Por consiguiente, en la
medida en que su uso esté permitido conforme al Derecho de la Unión y nacional
pertinente, procede clasificar como de alto riesgo varios sistemas de IA destinados
a ser utilizados con fines de aplicación de la ley cuando su precisión, fiabilidad y
transparencia sean especialmente importantes para evitar consecuencias adversas,
conservar la confianza de la población y garantizar la rendición de cuentas y una
compensación efectiva.
En vista de la naturaleza de las actividades y de los riesgos conexos, entre dichos
sistemas de IA de alto riesgo deben incluirse, en particular, los sistemas de IA
destinados a ser utilizados por las autoridades encargadas de la aplicación de la
ley, o en nombre de estas, o por los órganos u organismos de la Unión en apoyo
de las primeras, para evaluar el riesgo de que una persona física sea víctima de
infracciones penales, como los polígrafos y otras herramientas similares, para
evaluar la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de

CEPC Inteligencia artificial y administración de justicia 29


infracciones penales y, en la medida en que no esté prohibido conforme al presente
Reglamento, para evaluar el riesgo de que una persona física cometa una infracción
o reincida, no solo sobre la base de la elaboración de perfiles de personas físicas
o la evaluación de rasgos y características de la personalidad o comportamientos
delictivos pasados de personas físicas o grupos, o para elaborar perfiles durante la
detección, la investigación o el enjuiciamiento de infracciones penales. Los sistemas
de IA destinados específicamente a ser utilizados en procesos administrativos por las
autoridades fiscales y aduaneras y las unidades de inteligencia financiera que llevan a
cabo tareas administrativas de análisis de información de conformidad con el Derecho
de la Unión en materia de lucha contra el blanqueo de capitales no deben clasificarse
como sistemas de IA de alto riesgo usados por las autoridades encargadas de la
aplicación de la ley con el fin de prevenir, detectar, investigar y enjuiciar infracciones
penales. El uso de herramientas de IA por parte de las autoridades encargadas de la
aplicación de la ley no debe convertirse en un factor de desigualdad o exclusión. No
debe ignorarse el impacto del uso de herramientas de IA en los derechos de defensa
de los sospechosos, en particular la dificultad para obtener información significativa
sobre el funcionamiento de dichos sistemas y la consiguiente dificultad para
impugnar sus resultados ante los tribunales, en particular por parte de las personas
físicas investigadas.
[…]
(61) Deben clasificarse como de alto riesgo determinados sistemas de IA destinados
a la administración de justicia y los procesos democráticos, dado que pueden tener
efectos potencialmente importantes para la democracia, el Estado de Derecho, las
libertades individuales y el derecho a la tutela judicial efectiva y a un juez imparcial.
En particular, a fin de hacer frente al riesgo de posibles sesgos, errores y opacidades,
procede clasificar como de alto riesgo aquellos sistemas de IA destinados a ser
utilizados por una autoridad judicial o en su nombre para ayudar a las autoridades
judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos
hechos concretos. También deben considerarse de alto riesgo los sistemas de IA
destinados a ser utilizados por los organismos de resolución alternativa de litigios
con esos fines, cuando los resultados de los procedimientos de resolución alternativa
de litigios surtan efectos jurídicos para las partes. La utilización de herramientas de
IA puede apoyar el poder de decisión de los jueces o la independencia judicial, pero
no debe sustituirlas: la toma de decisiones finales debe seguir siendo una actividad
humana. No obstante, la clasificación de los sistemas de IA como de alto riesgo no
debe hacerse extensiva a los sistemas de IA destinados a actividades administrativas
meramente accesorias que no afectan a la administración de justicia propiamente
dicha en casos concretos, como la anonimización o seudonimización de resoluciones
judiciales, documentos o datos, la comunicación entre los miembros del personal o
las tareas administrativas.
(62) Sin perjuicio de las normas previstas en el Reglamento (UE) 2024/… del
Parlamento Europeo y del Consejo, y a fin de hacer frente a los riesgos de injerencia
externa indebida en el derecho de voto consagrado en el artículo 39 de la Carta, y
de efectos adversos sobre la democracia y el Estado de Derecho, deben clasificarse
como sistemas de IA de alto riesgo los sistemas de IA destinados a ser utilizados para
influir en el resultado de una elección o un referéndum, o en el comportamiento
electoral de las personas físicas en el ejercicio de su voto en elecciones o referendos,
con excepción de los sistemas de IA a cuya información de salida las personas físicas
no están directamente expuestas, como las herramientas utilizadas para organizar,
optimizar y estructurar campañas políticas desde un punto de vista administrativo
y logístico.
(63) El hecho de que un sistema de IA sea clasificado como un sistema de IA de alto
riesgo en virtud del presente Reglamento no debe interpretarse como indicador
de que su uso sea legal con arreglo a otros actos del Derecho de la Unión o del
Derecho nacional compatible con el Derecho de la Unión, por ejemplo, en materia
de protección de los datos personales o la utilización de polígrafos y herramientas
similares u otros sistemas para detectar el estado emocional de las personas físicas.
Todo uso de ese tipo debe seguir realizándose exclusivamente en consonancia con
los requisitos oportunos derivados de la Carta y de los actos aplicables del Derecho
derivado de la Unión y del Derecho nacional. No debe entenderse que el presente
Reglamento constituye un fundamento jurídico para el tratamiento de datos
personales, incluidas las categorías especiales de datos personales, en su caso, salvo

CEPC Inteligencia artificial y administración de justicia 30


que el presente Reglamento disponga específicamente otra cosa.
[…]
Artículo 3. Definiciones
[…]
34) «datos biométricos»: los datos personales obtenidos a partir de un tratamiento
técnico específico, relativos a las características físicas, fisiológicas o conductuales
de una persona física, como imágenes faciales o datos dactiloscópicos;
35) «identificación biométrica»: el reconocimiento automatizado de características
humanas de tipo físico, fisiológico, conductual o psicológico para determinar la
identidad de una persona física comparando sus datos biométricos con los datos
biométricos de personas almacenados en una base de datos;
36) «verificación biométrica»: la verificación automatizada y uno-a-uno, incluida la
autenticación, de la identidad de las personas físicas mediante la comparación de sus
datos biométricos con los datos biométricos facilitados previamente;
37) «categorías especiales de datos personales»: las categorías de datos personales
a que se refieren el artículo 9, apartado 1, del Reglamento (UE) 2016/679, el artículo
10 de la Directiva (UE) 2016/680 y el artículo 10, apartado 1, del Reglamento (UE)
2018/1725;
38) «datos operativos sensibles»: los datos operativos relacionados con actividades
de prevención, detección, investigación o enjuiciamiento de infracciones penales
cuya divulgación podría poner en peligro la integridad de las causas penales;
39) «sistema de reconocimiento de emociones»: un sistema de IA destinado a
distinguir o inferir las emociones o las intenciones de las personas físicas a partir de
sus datos biométricos;
40) «sistema de categorización biométrica»: un sistema de IA destinado a incluir a
las personas físicas en categorías específicas en función de sus datos biométricos,
a menos que sea accesorio a otro servicio comercial y estrictamente necesario por
razones técnicas objetivas;
41) «sistema de identificación biométrica remota»: un sistema de IA destinado a
identificar a las personas físicas sin su participación activa y generalmente a distancia
comparando sus datos biométricos con los que figuran en una base de datos de
referencia;
42) «sistema de identificación biométrica remota en tiempo real»: un sistema de
identificación biométrica remota en el que la recogida de los datos biométricos, la
comparación y la identificación se producen sin una demora significativa; engloba
no solo la identificación instantánea, sino también, a fin de evitar la elusión, demoras
mínimas limitadas;
43) «sistema de identificación biométrica remota en diferido»: cualquier sistema de
identificación biométrica remota que no sea un sistema de identificación biométrica
remota en tiempo real;
45) «autoridad encargada de la aplicación de la ley»: a) toda autoridad pública
competente para la prevención, la investigación, la detección o el enjuiciamiento
de infracciones penales o la ejecución de sanciones penales, incluidas la protección
frente a amenazas para la seguridad pública y la prevención de dichas amenazas, o
b) cualquier otro organismo o entidad a quien el Derecho del Estado miembro haya
confiado el ejercicio de la autoridad pública y las competencias públicas a efectos
de prevención, investigación, detección o enjuiciamiento de infracciones penales o
ejecución de sanciones penales, incluidas la protección frente a amenazas para la
seguridad pública y la prevención de dichas amenazas;
46) «aplicación de la ley»: las actividades realizadas por las autoridades encargadas
de la aplicación de la ley, o en su nombre, para la prevención, la investigación, la
detección o el enjuiciamiento de infracciones penales o la ejecución de sanciones
penales, incluidas la protección frente a amenazas para la seguridad pública y la
prevención de dichas amenazas;
[…]

CEPC Inteligencia artificial y administración de justicia 31


Artículo 5. Prácticas de IA prohibidas
1. Quedan prohibidas las siguientes prácticas de IA:
[…]
d) la introducción en el mercado, la puesta en servicio para este fin específico
o el uso de un sistema de IA para realizar evaluaciones de riesgos de personas
físicas con el fin de evaluar o predecir la probabilidad de que una persona física
cometa una infracción penal basándose únicamente en la elaboración del perfil
de una persona física o en la evaluación de los rasgos y características de su
personalidad; esta prohibición no se aplicará a los sistemas de IA utilizados
para apoyar la evaluación humana de la implicación de una persona en una
actividad delictiva que ya se base en hechos objetivos y verificables directamente
relacionados con una actividad delictiva;
e) la introducción en el mercado, la puesta en servicio para este fin específico o
el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento
facial mediante la extracción no selectiva de imágenes faciales de internet o de
circuitos cerrados de televisión;
f) la introducción en el mercado, la puesta en servicio para este fin específico o
el uso de sistemas de IA para inferir las emociones de una persona física en los
lugares de trabajo y en los centros educativos, excepto cuando el sistema de IA
esté destinado a ser instalado o introducido en el mercado por motivos médicos
o de seguridad;
g) la introducción en el mercado, la puesta en servicio para este fin específico o
el uso de sistemas de categorización biométrica que clasifiquen individualmente
a las personas físicas sobre la base de sus datos biométricos para deducir o
inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas
o filosóficas, vida sexual u orientación sexual; esta prohibición no abarca el
etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente,
como imágenes, basado en datos biométricos ni la categorización de datos
biométricos en el ámbito de la aplicación de la ley;
h) el uso de sistemas de identificación biométrica remota «en tiempo real» en
espacios de acceso público con fines de aplicación de la ley, salvo y en la medida
en que dicho uso sea estrictamente necesario para alcanzar uno o varios de los
objetivos siguientes:
i) la búsqueda selectiva de víctimas concretas de secuestro, trata de seres
humanos o explotación sexual de seres humanos, así como la búsqueda de
personas desaparecidas;
ii) la prevención de una amenaza específica, importante e inminente para
la vida o la seguridad física de las personas físicas o de una amenaza real
y actual o real y previsible de un atentado terrorista; iii) la localización o
identificación de una persona sospechosa de haber cometido una infracción
penal a fin de llevar a cabo una investigación o un enjuiciamiento penales o
de ejecutar una sanción penal por alguno de los delitos mencionados en el
anexo II que en el Estado miembro de que se trate se castigue con una pena
o una medida de seguridad privativas de libertad cuya duración máxima sea
de al menos cuatro años.
El párrafo primero, letra h), se entiende sin perjuicio de lo dispuesto en el artículo
9 del Reglamento (UE) 2016/679 en lo que respecta al tratamiento de datos
biométricos con fines distintos de la aplicación de la ley.
2. El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios
de acceso público con fines de aplicación de la ley para cualquiera de los objetivos
mencionados en el apartado 1, letra h), debe llevarse a cabo únicamente para los fines
establecidos en el apartado 1, letra h), para confirmar la identidad de la persona que
constituya el objetivo específico y tendrá en cuenta los siguientes aspectos:
a) la naturaleza de la situación que dé lugar al posible uso, y en particular la
gravedad, probabilidad y magnitud del perjuicio que se produciría de no utilizarse
el sistema;
b) las consecuencias que tendría el uso del sistema en los derechos y las libertades

CEPC Inteligencia artificial y administración de justicia 32


de las personas implicadas, y en particular la gravedad, probabilidad y magnitud
de dichas consecuencias.
Además, el uso de sistemas de identificación biométrica remota «en tiempo real»
en espacios de acceso público con fines de aplicación de la ley para cualquiera de
los objetivos mencionados en el apartado 1, letra h), del presente artículo deberá
satisfacer garantías y condiciones necesarias y proporcionadas en relación con el
uso de conformidad con la legislación nacional que autorice dicho uso, en particular
en lo que respecta a las limitaciones temporales, geográficas y relativas a las personas.
El uso del sistema de identificación biométrica remota «en tiempo real» en espacios
de acceso público solo se autorizará si la autoridad encargada de la aplicación de la
ley ha completado una evaluación de impacto relativa a los derechos fundamentales
según lo dispuesto en el artículo 27 y ha registrado el sistema en la base de datos de la
UE de conformidad con el artículo 49. No obstante, en casos de urgencia debidamente
justificados, se podrá empezar a utilizar tales sistemas sin el registro en la base de
datos de la UE, siempre que dicho registro se lleve a cabo sin demora indebida.
3. A los efectos del apartado 1, letra h), y el apartado 2, todo uso de un sistema de
identificación biométrica remota «en tiempo real» en espacios de acceso público con
fines de aplicación de la ley estará supeditado a la concesión de una autorización
previa por parte de una autoridad judicial o una autoridad administrativa
independiente cuya decisión sea vinculante del Estado miembro en el que vaya a
utilizarse dicho sistema, que se otorgará previa solicitud motivada y de conformidad
con las normas detalladas del Derecho nacional mencionadas en el apartado 5. No
obstante, en una situación de urgencia debidamente justificada, se podrá empezar
a utilizar tal sistema sin autorización siempre que se solicite dicha autorización
sin demora indebida, a más tardar en un plazo de 24 horas. Si se rechaza dicha
autorización, el uso se interrumpirá con efecto inmediato y todos los datos, así como
los resultados y la información de salida generados por dicho uso, se desecharán y
suprimirán inmediatamente.
La autoridad judicial competente o una autoridad administrativa independiente
cuya decisión sea vinculante únicamente concederá la autorización cuando tenga
constancia, atendiendo a las pruebas objetivas o a los indicios claros que se le
presenten, de que el uso del sistema de identificación biométrica remota «en tiempo
real» es necesario y proporcionado para alcanzar alguno de los objetivos que figuran
en el apartado 1, letra h), el cual se indicará en la solicitud, y, en particular, se limita
a lo estrictamente necesario en lo que se refiere al período de tiempo, así como al
ámbito geográfico y personal. Al pronunciarse al respecto, esa autoridad tendrá en
cuenta los aspectos mencionados en el apartado 2. No podrá adoptarse ninguna
decisión que produzca efectos jurídicos adversos para una persona exclusivamente
sobre la base de la información de salida del sistema de identificación biométrica
remota «en tiempo real».
4. Sin perjuicio de lo dispuesto en el apartado 3, todo uso de un sistema de
identificación biométrica remota «en tiempo real» en espacios de acceso público con
fines de aplicación de la ley se notificará a la autoridad de vigilancia del mercado
pertinente y a la autoridad nacional de protección de datos de conformidad con las
normas nacionales a que se refiere el apartado 5. La notificación contendrá, como
mínimo, la información especificada en el apartado 6 y no incluirá datos operativos
sensibles.
5. Los Estados miembros podrán decidir contemplar la posibilidad de autorizar, ya
sea total o parcialmente, el uso de sistemas de identificación biométrica remota «en
tiempo real» en espacios de acceso público con fines de aplicación de la ley dentro
de los límites y en las condiciones que se indican en el apartado 1, letra h), y los
apartados 2 y 3. Los Estados miembros de que se trate deberán establecer en sus
respectivos Derechos nacionales las normas detalladas necesarias aplicables a la
solicitud, la concesión y el ejercicio de las autorizaciones a que se refiere el apartado
3, así como a la supervisión y la notificación relacionadas con estas. Dichas normas
especificarán también para qué objetivos de los enumerados en el apartado 1, letra
h), y en su caso en relación con qué delitos de los indicados en la letra h), inciso iii),
se podrá autorizar a las autoridades competentes para que utilicen esos sistemas
con fines de aplicación de la ley. Los Estados miembros notificarán dichas normas
a la Comisión a más tardar 30 días después de su adopción. Los Estados miembros
podrán adoptar, de conformidad con el Derecho de la Unión, leyes más restrictivas
sobre el uso de sistemas de identificación biométrica remota.

CEPC Inteligencia artificial y administración de justicia 33


6. Las autoridades nacionales de vigilancia del mercado y las autoridades nacionales
de protección de datos de los Estados miembros a las que se haya notificado el uso
de sistemas de identificación biométrica remota «en tiempo real» en espacios de
acceso público con fines de aplicación de la ley con arreglo al apartado 4 presentarán
a la Comisión informes anuales sobre dicho uso. A tal fin, la Comisión facilitará a
los Estados miembros y a las autoridades nacionales de vigilancia del mercado
y de protección de datos un modelo que incluya información sobre el número de
decisiones adoptadas por las autoridades judiciales competentes o una autoridad
administrativa independiente cuya decisión sea vinculante en relación con las
solicitudes de autorización de conformidad con el apartado 3, así como su resultado.
7. La Comisión publicará informes anuales sobre el uso de sistemas de identificación
biométrica remota «en tiempo real» en espacios de acceso público con fines de
aplicación de la ley elaborados basados en datos agregados relativos a los Estados
miembros atendiendo a los informes anuales a que se refiere el apartado 6. Dichos
informes anuales no incluirán datos operativos sensibles de las actividades de
aplicación de la ley conexas.
8. El presente artículo no afectará a las prohibiciones aplicables cuando una práctica
de IA infrinja otro acto legislativo de la Unión.
[…]
Artículo 14. Vigilancia humana
[…]
4. A efectos de la puesta en práctica de lo dispuesto en los apartados 1, 2 y 3, el sistema
de IA de alto riesgo se ofrecerá al usuario de tal modo que las personas físicas a
quienes se encomiende la vigilancia humana puedan, en función de las circunstancias
y de manera proporcionada a estas:
a) entender adecuadamente las capacidades y limitaciones pertinentes del
sistema de IA de alto riesgo y poder vigilar debidamente su funcionamiento, por
ejemplo, con vistas a detectar y resolver anomalías, problemas de funcionamiento
y comportamientos inesperados;
b) ser conscientes de la posible tendencia a confiar automáticamente o en
exceso en la información de salida generada por un sistema de IA de alto riesgo
(«sesgo de automatización»), en particular con aquellos sistemas que se utilizan
para aportar información o recomendaciones con el fin de que personas físicas
adopten una decisión;
c) interpretar correctamente la información de salida del sistema de IA de
alto riesgo, teniendo en cuenta, por ejemplo, los métodos y herramientas de
interpretación disponibles;
d) decidir, en cualquier situación concreta, no utilizar el sistema de IA de alto
riesgo o desestimar, invalidar o revertir la información de salida que este genere;
e) intervenir en el funcionamiento del sistema de IA de alto riesgo o interrumpir
el sistema pulsando un botón de parada o mediante un procedimiento similar
que permita que el sistema se detenga de forma segura.
5. En el caso de los sistemas de IA de alto riesgo mencionados en el punto 1, letra
a), del anexo III, las medidas a que se refiere el apartado 3 del presente artículo
garantizarán, además, que el responsable del despliegue no actúe ni tome ninguna
decisión basándose en la identificación generada por el sistema, salvo si al menos dos
personas físicas con la competencia, formación y autoridad necesarias han verificado
y confirmado por separado dicha identificación.
El requisito de la verificación por parte de al menos dos personas físicas por separado
no se aplicará a los sistemas de IA de alto riesgo utilizados con fines de aplicación de
la ley, de migración, de control fronterizo o de asilo cuando el Derecho nacional o de
la Unión considere que la aplicación de este requisito es desproporcionada.
[…]
Artículo 26. Obligaciones de los responsables del despliegue de sistemas de IA de alto
riesgo
[…]

CEPC Inteligencia artificial y administración de justicia 34


10. No obstante lo dispuesto en la Directiva (UE) 2016/680, en el marco de una
investigación cuya finalidad sea la búsqueda selectiva de una persona sospechosa
de haber cometido una infracción penal o condenada por ello, el responsable del
despliegue de un sistema de IA de alto riesgo de identificación biométrica remota
en diferido solicitará, ex ante o sin demora indebida y a más tardar en un plazo de
cuarenta y ocho horas, a una autoridad judicial o administrativa cuyas decisiones
sean vinculantes y estén sujetas a revisión judicial, una autorización para utilizar ese
sistema, salvo cuando se utilice para la identificación inicial de un posible sospechoso
sobre la base de hechos objetivos y verificables vinculados directamente a la
infracción. Cada utilización deberá limitarse a lo que resulte estrictamente necesario
para investigar una infracción penal concreta.
En caso de que se deniegue la autorización contemplada en el párrafo primero, dejará
de utilizarse el sistema de identificación biométrica remota en diferido objeto de la
solicitud de autorización con efecto inmediato y se eliminarán los datos personales
asociados al uso del sistema de IA de alto riesgo para el que se solicitó la autorización.
Dicho sistema de IA de alto riesgo de identificación biométrica remota en diferido
no se utilizará en ningún caso a los efectos de la aplicación de la ley de forma
indiscriminada, sin que exista relación alguna con una infracción penal, un proceso
penal, una amenaza real y actual o real y previsible de infracción penal, o con la
búsqueda de una persona desaparecida concreta. Se velará por que las autoridades
encargadas de la aplicación de la ley no puedan adoptar ninguna decisión que
produzca efectos jurídicos adversos para una persona exclusivamente sobre la base
de la información de salida de dichos sistemas de identificación biométrica remota
en diferido.
El presente apartado se entiende sin perjuicio del artículo 9 del Reglamento (UE)
2016/679 y del artículo 10 de la Directiva (UE) 2016/680 para el tratamiento de los
datos biométricos.
Con independencia de la finalidad o del responsable del despliegue, se documentará
toda utilización de tales sistemas de IA de alto riesgo en el expediente policial
pertinente y se pondrá a disposición, previa solicitud, de la autoridad de vigilancia
del mercado pertinente y de la autoridad nacional de protección de datos, quedando
excluida la divulgación de datos operativos sensibles relacionados con la aplicación
de la ley. El presente párrafo se entenderá sin perjuicio de los poderes conferidos por
la Directiva (UE) 2016/680 a las autoridades de control.
Los responsables del despliegue presentarán informes anuales a la autoridad de
vigilancia del mercado pertinente y a la autoridad nacional de protección de datos
sobre el uso que han hecho de los sistemas de identificación biométrica remota en
diferido, quedando excluida la divulgación de datos operativos sensibles relacionados
con la aplicación de la ley. Los informes podrán agregarse de modo que abarquen más
de un despliegue.
Los Estados miembros podrán adoptar, de conformidad con el Derecho de la Unión,
leyes más restrictivas sobre el uso de sistemas de identificación biométrica remota
en diferido.
[…]
Artículo 77. Poderes de las autoridades encargadas de proteger los derechos
fundamentales
1. Las autoridades u organismos públicos nacionales encargados de supervisar o
hacer respetar las obligaciones contempladas en el Derecho de la Unión en materia
de protección de los derechos fundamentales, en particular el derecho a la no
discriminación, con respecto al uso de sistemas de IA de alto riesgo mencionados
en el anexo III tendrán la facultad de solicitar cualquier documentación creada o
conservada con arreglo al presente Reglamento y de acceder a ella, en un lenguaje
y formato accesibles, cuando el acceso a dicha documentación sea necesario para el
cumplimiento efectivo de sus mandatos, dentro de los límites de su jurisdicción. La
autoridad u organismo público pertinente informará sobre cualquier solicitud de este
tipo a la autoridad de vigilancia del mercado del Estado miembro que corresponda.
[…]
Artículo 78. Confidencialidad

CEPC Inteligencia artificial y administración de justicia 35


1. La Comisión, las autoridades de vigilancia del mercado, los organismos notificados
y cualquier otra persona física o jurídica que participe en la aplicación del presente
Reglamento, de conformidad con el Derecho de la Unión y nacional, respetarán
la confidencialidad de la información y los datos obtenidos en el ejercicio de sus
funciones y actividades de modo que se protejan, en particular:
a) los derechos de propiedad intelectual e industrial y la información
empresarial confidencial o los secretos comerciales de una persona física o
jurídica, incluido el código fuente, salvo en los casos mencionados en el artículo
5 de la Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo, relativa
a la protección de los conocimientos técnicos y la información empresarial no
divulgados (secretos comerciales) contra su obtención, utilización y revelación
ilícitas;
b) la aplicación eficaz del presente Reglamento, en particular a efectos de
investigaciones, inspecciones o auditorías;
c) los intereses de seguridad pública y nacional;
d) el desarrollo de las causas penales o los procedimientos administrativos;
e) la información clasificada con arreglo al Derecho de la Unión o nacional.
2. Las autoridades involucradas en la aplicación del presente Reglamento de
conformidad con el apartado 1 solo solicitarán los datos que sean estrictamente
necesarios para la evaluación del riesgo que presentan los sistemas de IA y para
el ejercicio de sus competencias en cumplimiento del presente Reglamento y del
Reglamento (UE) 2019/1020. Establecerán medidas adecuadas y eficaces en materia de
ciberseguridad a fin de proteger la seguridad y la confidencialidad de la información
y los datos obtenidos, y suprimirán los datos recopilados tan pronto como dejen
de ser necesarios para los fines para los que se obtuvieron, de conformidad con el
Derecho de la Unión y nacional aplicable.
3. Sin perjuicio de lo dispuesto en los apartados 1 y 2, la información intercambiada
de forma confidencial entre las autoridades nacionales competentes o entre estas
y la Comisión no se revelará sin consultar previamente a la autoridad nacional
competente de origen y al responsable del despliegue cuando las autoridades
encargadas de la aplicación de la ley, del control de fronteras, de la inmigración o
del asilo utilicen los sistemas de IA de alto riesgo a que se refieren los puntos 1, 6 o 7
del anexo III y dicha divulgación comprometería los intereses de seguridad pública y
nacional. Este intercambio de información no abarcará los datos operativos sensibles
relativos a las actividades de las autoridades encargadas de la aplicación de la ley, del
control de fronteras, de la inmigración o del asilo.
Cuando las autoridades encargadas de la aplicación de la ley, de la inmigración o
del asilo sean proveedores de sistemas de IA de alto riesgo a que se refieren los
puntos 1, 6 o 7 del anexo III, la documentación técnica mencionada en el anexo IV
permanecerá dentro de las instalaciones de dichas autoridades. Dichas autoridades
velarán por que las autoridades de vigilancia del mercado a que se refiere el artículo
74, apartados 8 y 9, según proceda, puedan, previa solicitud, acceder inmediatamente
a la documentación u obtener una copia de esta. Tan solo se permitirá acceder a dicha
documentación o a cualquier copia de esta al personal de la autoridad de vigilancia
del mercado que disponga de una habilitación de seguridad del nivel adecuado.
[…]
ANEXO III . Sistemas de IA de alto riesgo a que se refiere el artículo 6, apartado 2
Los sistemas de IA de alto riesgo con arreglo al artículo 6, apartado 2, son los sistemas
de IA que formen parte de cualquiera de los ámbitos siguientes:
1. Biometría, en la medida en que su uso esté permitido por el Derecho de la Unión
o nacional aplicable:
a) Sistemas de identificación biométrica remota. Quedan excluidos los sistemas
de IA destinados a ser utilizados con fines de verificación biométrica cuya única
finalidad sea confirmar que una persona física concreta es la persona que afirma
ser.

CEPC Inteligencia artificial y administración de justicia 36


b) Sistemas de IA destinados a ser utilizados para la categorización biométrica
en función de atributos o características sensibles o protegidos basada en la
inferencia de dichos atributos o características.
c) Sistemas de IA destinados a ser utilizados para el reconocimiento de emociones.
[…]
6. Aplicación de la ley, en la medida en que su uso esté permitido por el Derecho de
la Unión o nacional aplicable:
a) Sistemas de IA destinados a ser utilizados por las autoridades encargadas de la
aplicación de la ley, o en su nombre, o por las instituciones, órganos y organismos
de la Unión en apoyo de las autoridades encargadas de la aplicación de la ley, o
en su nombre, para evaluar el riesgo de que una persona física sea víctima de
infracciones penales.
b) Sistemas de IA destinados a ser utilizados por las autoridades encargadas de la
aplicación de la ley, o en su nombre, o por las instituciones, órganos y organismos
de la Unión en apoyo de las autoridades encargadas de la aplicación de la ley
como polígrafos o herramientas similares.
c) Sistemas de IA destinados a ser utilizados por las autoridades encargadas de la
aplicación de la ley, o en su nombre, o por las instituciones, órganos y organismos
de la Unión en apoyo de las autoridades encargadas de la aplicación de la ley para
evaluar la fiabilidad de las pruebas durante la investigación o el enjuiciamiento
de infracciones penales.
d) Sistemas de IA destinados a ser utilizados por las autoridades encargadas de la
aplicación de la ley, o en su nombre, o por las instituciones, órganos y organismos
de la Unión en apoyo de las autoridades encargadas de la aplicación de la ley
para evaluar la probabilidad de que una persona física cometa una infracción o
reincida en la comisión de una infracción atendiendo no solo a la elaboración de
perfiles de personas físicas mencionada en el artículo 3, punto 4, de la Directiva
(UE) 2016/680 o para evaluar rasgos y características de la personalidad o
comportamientos delictivos pasados de personas físicas o grupos.
e) Sistemas de IA destinados a ser utilizados por las autoridades encargadas de la
aplicación de la ley, o en su nombre, o por las instituciones, órganos y organismos
de la Unión en apoyo de las autoridades encargadas de la aplicación de la ley
para elaborar perfiles de personas físicas, como se menciona en el artículo 3,
punto 4, de la Directiva (UE) 2016/680, durante la detección, la investigación o el
enjuiciamiento de infracciones penales.
[…]
8. Administración de justicia y procesos democráticos:
a) Sistemas de IA destinados a ser utilizados por una autoridad judicial, o en su
nombre, para ayudar a una autoridad judicial en la investigación e interpretación
de hechos y de la ley, así como en la aplicación de la ley a un conjunto concreto
de hechos, o a ser utilizados de forma similar en una resolución alternativa de
litigios.
[…]
ANEXO X. Actos legislativos de la Unión relativos a sistemas informáticos de gran
magnitud en el espacio de libertad, seguridad y justicia.
[…]
6. Sistema Europeo de Información de Antecedentes Penales en relación con los
nacionales de terceros países y apátridas.
a) Reglamento (UE) 2019/816 del Parlamento Europeo y del Consejo, de 17 de abril
de 2019, por el que se establece un sistema centralizado para la identificación de
los Estados miembros que poseen información sobre condenas de nacionales
de terceros países y apátridas (ECRIS-TCN) a fin de complementar el Sistema
Europeo de Información de Antecedentes Penales, y por el que se modifica el
Reglamento (UE) 2018/1726 (DO L 135 de 22.5.2019, p. 1).

CEPC Inteligencia artificial y administración de justicia 37


7. Interoperabilidad
a) Reglamento (UE) 2019/817 del Parlamento Europeo y del Consejo, de 20 de
mayo de 2019, relativo al establecimiento de un marco para la interoperabilidad
de los sistemas de información de la UE en el ámbito de las fronteras y los visados
(DO L 135 de 22.5.2019, p. 27).
b) Reglamento (UE) 2019/818 del Parlamento Europeo y del Consejo, de 20 de
mayo de 2019, relativo al establecimiento de un marco para la interoperabilidad
entre los sistemas de información de la UE en el ámbito de la cooperación policial
y judicial, el asilo y la migración (DO L 135 de 22.5.2019, p. 85).

Directivas y reglamentos relacionados con el


Reglamento de Inteligencia Artificial

Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27


de abril de 2016, relativa a la protección de las personas físicas en lo que
respecta al tratamiento de datos personales por parte de las autoridades
competentes para fines de prevención, investigación, detección o
enjuiciamiento de infracciones penales o de ejecución de sanciones
penales, y a la libre circulación de dichos datos y por la que se deroga
la Decisión Marco 2008/977/JAI del Consejo. Diario Oficial de la Unión
Europea, 4 de mayo de 2016, serie L, núm. 119.
Enlace al documento

Reglamento (UE) 2018/1725 del Parlamento Europeo y del Consejo, de


23 de octubre de 2018, relativo a la protección de las personas físicas en
lo que respecta al tratamiento de datos personales por las instituciones,
órganos y organismos de la Unión, y a la libre circulación de esos datos,
y por el que se derogan el Reglamento (CE) n.° 45/2001 y la Decisión n.°
1247/2002/CE (Texto pertinente a efectos del EEE.) Diario Oficial de la
Unión Europea, 21 de noviembre de 2018, serie L, núm. 295.
Enlace al documento

Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27


de abril de 2016, relativo a la protección de las personas físicas en lo que
respecta al tratamiento de datos personales y a la libre circulación de
estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento
general de protección de datos) (Texto pertinente a efectos del EEE).
Diario Oficial de la Unión Europea, 4 de mayo de 2016, serie L, núm. 119.
Enlace al documento

Reglamento (UE) 2019/816 del Parlamento Europeo y del Consejo, de 17


de abril de 2019, por el que se establece un sistema centralizado para la
identificación de los Estados miembros que poseen información sobre
condenas de nacionales de terceros países y apátridas (ECRIS-TCN) a fin
de complementar el Sistema Europeo de Información de Antecedentes
Penales, y por el que se modifica el Reglamento (UE) 2018/1726. Diario
Oficial de la Unión Europea, 22 de mayo de 2019, serie L, núm. 135.
Enlace al documento

CEPC Inteligencia artificial y administración de justicia 38


Reglamento (UE) 2019/817 del Parlamento Europeo y del Consejo, de
20 de mayo de 2019, relativo al establecimiento de un marco para la
interoperabilidad de los sistemas de información de la UE en el ámbito
de las fronteras y los visados y por el que se modifican los Reglamentos
(CE) n.° 767/2008, (UE) 2016/399, (UE) 2017/2226, (UE) 2018/1240, (UE)
2018/1726 y (UE) 2018/1861 del Parlamento Europeo y del Consejo, y las
Decisiones 2004/512/CE y 2008/633/JAI del Consejo. Diario Oficial de
la Unión Europea, 22 de mayo de 2019, serie L, núm. 135.
Enlace al documento

Otras iniciativas

Comisión Europea (2024). Creación de una oficina de Inteligencia


Artificial.
(Nota de prensa de 29 de mayo de 2024).
Enlace al sitio

Tendrá como objeto permitir el desarrollo, el despliegue y el uso futuros de la IA


de un modo que fomente los beneficios sociales y económicos y la innovación,
mitigando al mismo tiempo los riesgos. La Oficina desempeñará un papel clave
en la aplicación de la Ley de IA.

Decisión de la Comisión, de 24 de enero de 2024, por la que se crea


la Oficina Europea de Inteligencia Artificial. Diario Oficial de la Unión
Europea, 14 de febrero de 2024, serie C.
Enlace al documento

Comisión Europea (2018). Plan coordinado de Inteligencia artificial.


Enlace al sitio

El Plan Coordinado sobre Inteligencia Artificial tiene por objeto acelerar la


inversión en IA, aplicar estrategias y programas de IA y armonizar la política
de IA para evitar la fragmentación en Europa. Se publicó en 2018. Se trata de
un compromiso conjunto entre la Comisión, los Estados miembros de la UE,
Noruega y Suiza para maximizar el potencial de Europa de competir a nivel
mundial. El Plan inicial definió acciones e instrumentos de financiación para la
adopción y el desarrollo de la IA en todos los sectores. Paralelamente, se alentó
a los Estados miembros a desarrollar sus propias estrategias nacionales.
La última actualización del plan se publicó en 2021. Muestra el compromiso de
Europa con la creación de un liderazgo mundial en IA confiable. El plan de 2021
también está estrechamente alineado con las prioridades digitales y ecológicas
de la Comisión y con la respuesta de Europa a la pandemia de COVID-19.

Comisión Europea (2018). Inteligencia artificial para Europa. Comunicación


de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al
Comité Económico y Social Europeo y al Comité de las Regiones (25 de
abril de 2018).
Enlace al documento

CEPC Inteligencia artificial y administración de justicia 39


La Unión Europea debe adoptar un planteamiento coordinado que le permita
aprovechar al máximo las oportunidades que brinda la IA y abordar los nuevos
retos que conlleva. La UE tiene la posibilidad de liderar el desarrollo y la
utilización de la IA de una vez y para todos, partiendo de los valores y puntos
fuertes con los que cuenta.

Comisión Europea. Grupo de expertos de alto nivel sobre inteligencia


artificial.
Enlace al sitio

La Comisión Europea nombró a un grupo de expertos para asesorar sobre su


estrategia de inteligencia artificial.
Durante el primer año de su mandato, el grupo de expertos de alto nivel sobre
inteligencia artificial (AI HLEG) presentó los documentos «Directrices éticas
para una IA confiable» y «Recomendaciones de política e inversión para una IA
fiable». Los resultados del trabajo del grupo fueron presentados en la 1ª Asamblea
Europea de IA en 2019. Su labor terminó en julio de 2020 con la presentación de
la «Lista final de evaluación de la IA fiable» y las «Consideraciones sectoriales
sobre las recomendaciones de política e inversión».

Documentación complementaria

Comisión Europea (2020). Libro Blanco sobre la inteligencia artificial - un


enfoque europeo orientado a la excelencia y la confianza.
Enlace al documento

Consejo de Europa (2019). CETS No. 225. The Framework Convention on


Artificial Intelligence
(Convenio Marco sobre Inteligencia Artificial)
Enlace al sitio

El Convenio Marco del Consejo de Europa sobre la Inteligencia Artificial y los


Derechos Humanos, la Democracia y el Estado de Derecho es el primer tratado
internacional jurídicamente vinculante en este ámbito. Desarrollado entre 2019
y 2022, su objetivo es garantizar la plena coherencia de las actividades dentro del
ciclo de vida de los sistemas de inteligencia artificial con los derechos humanos,
la democracia y el Estado de Derecho, y favorecer el progreso tecnológico y la
innovación.
Fue elaborado por los 46 Estados miembros del Consejo de Europa, con la
participación de los Estados observadores: Canadá, Estados Unidos de América,
Japón, México y la Santa Sede, así como la Unión Europea, y un número importante
de Estados no miembros: Australia, Argentina, Costa Rica, Israel, Perú y Uruguay.
También contó con la colaboración de 68 representantes internacionales de la
sociedad civil, el mundo académico y la industria, así como otras organizaciones
internacionales.
El Convenio Marco abarca el uso de sistemas de IA por parte de las autoridades
públicas -incluidos los entes particulares que actúan en su nombre- y los agentes
privados. No se aplica a los asuntos de defensa nacional ni a las actividades de
investigación y desarrollo, excepto cuando las pruebas de sistemas de IA puedan
tener la capacidad de interferir con los derechos humanos, la democracia o el
Estado de Derecho.

CEPC Inteligencia artificial y administración de justicia 40


Vilnius 05/09/2024 - Treaty open for signature by the member States, the
non-member States which have participated in its elaboration and by the
European Union, and for accession by other non-member States
(Tratado abierto a la firma de los Estados miembros, de los Estados no miembros
que hayan participado en su elaboración y de la Unión Europea, así como a la
adhesión de otros Estados no miembros).
Enlace al sitio

Comisión Europea para la Eficiencia de la Justicia (CEPEJ) (2018). Carta


ética europea sobre el uso de la inteligencia artificial en los sistemas
judiciales y su entorno.
Enlace al documento

La Carta ética europea sobre el uso de la inteligencia artificial en los sistemas


judiciales y su entorno representó un primer paso en el camino de la aplicación
de la inteligencia artificial a la Administración de Justicia. Fue adoptada por La
Comisión Europea para la Eficacia de la Justicia durante su 31ª Reunión plenaria,
celebrada en Estrasburgo los días 3 y 4 de diciembre de 2018.
La Carta estaba destinada a los responsables tanto públicos como privados
responsables del diseño y el despliegue de herramientas y servicios de IA que
precisaban del procesamiento de decisiones judiciales y de datos. También se
dirigía a los legisladores y reguladores públicos, así como a los encargados del
desarrollo, el uso y la evaluación de tales instrumentos.
Reconociendo que el objetivo de la aplicación de la IA a los sistemas judiciales
era el de lograr una administración de la justicia más cualificada y eficiente,
señalaba que ésta debe llevarse a cabo de una manera responsable, con especial
atención a los derechos fundamentales que establece el Convenio Europeo de
Derechos Humanos y el Convenio sobre la Protección de Datos Personales,
entre otros principios.
El documento adoptaba formalmente 5 principios esenciales:
1. Principio de respeto por los derechos fundamentales: garantizar que el
diseño y la implementación de herramientas y servicios de inteligencia
artificial sean compatibles con los derechos fundamentales.
2. Principio de no discriminación: prevenir específicamente el desarrollo o
intensificación de cualquier discriminación entre individuos o grupos de
individuos.
3. Principio de calidad y seguridad: con respecto al procesamiento de
decisiones y datos judiciales, utilice fuentes certificadas y datos intangibles
con modelos elaborados de manera multidisciplinaria, en un entorno
tecnológico seguro.
4. Principio de transparencia, imparcialidad y justicia: hacer que los métodos
de procesamiento de datos sean accesibles y comprensibles, autorizar
auditorías externas.
5. Principio «bajo control del usuario»: excluir un enfoque prescriptivo y
garantizar que los usuarios sean actores informados y que controlen las
elecciones realizadas.

CEPC Inteligencia artificial y administración de justicia 41


Nota: Legislación e iniciativas en Europa
Las traducciones presentadas Esta sección contiene información relativa a los Estados miembros de la UE, junto
en el texto son traducciones
libres y sin valor oficial
con Noruega y Suiza, con información detallada sobre las políticas identificadas
alguno, salvo en los casos en sus estrategias nacionales de inteligencia artificial.
en los que expresamente
se indica lo contrario. Hemos prestado atención a aquellos países en los que la IA está más implementada
a nivel gubernamental y, específicamente, en la Administración de Justicia.

Fuentes: Alemania
Sitio web de la Estrategia
Nacional para la IA
Legislación
Sitio web la Fundación
Bertelsmann No se ha encontrado.

Documentación complementaria

Fundación Bertelsmann [s.f.]. «Proyecto Reframe[Tech]– Algoritmos para


el bien común».
Enlace al sitio

En el proyecto “Reframe[Tech] – Algoritmos para el bien común”, nos dedicamos


a garantizar que el desarrollo y el uso de las tecnologías digitales estén más
estrechamente alineados con el bien común.
Nos comprometemos a garantizar que el desarrollo de estas tecnologías tenga
en cuenta de manera transparente las necesidades y los derechos de todos los
afectados directa e indirectamente. Contribuimos a este objetivo reuniendo a las
partes interesadas de la sociedad civil, el mundo académico y los sectores público y
privado, promoviendo así un debate objetivo. Ofrecemos análisis de los riesgos y las
oportunidades de las tecnologías digitales, junto con perspectivas y soluciones para
aprovechar su potencial en pos del bien común.
Cada día interactuamos con tecnologías digitales en un número cada vez mayor
de ámbitos de la sociedad. Se ha escrito y publicado mucho para garantizar que las
consideraciones éticas desempeñen un papel crucial en su diseño y uso. Sin embargo,
en la práctica, los riesgos que plantean estos algoritmos para la sociedad suelen pasar
desapercibidos. Además, las tecnologías digitales se desarrollan casi exclusivamente
con fines económicos y con la eficiencia en mente, lo que deja en gran medida sin
explotar su potencial para aplicaciones de bien común.
Estas observaciones ponen de relieve la necesidad de adoptar nuevos enfoques.
El mero hecho de dedicarse al discurso ético ya no es suficiente. Por ello, nos
comprometemos a formular conceptos y soluciones para la aplicación concreta
y vinculante de los principios éticos en la práctica. Examinamos las tendencias y
los desafíos pertinentes en el desarrollo tecnológico en un contexto más amplio,
cuestionando el poder de mercado y la autoridad interpretativa de unos pocos
actores influyentes.
Ante estos desafíos, determinados actores tienen una responsabilidad especial. Entre
ellos se encuentran los responsables políticos a nivel alemán, nacional y europeo
que establecen los marcos regulatorios pertinentes, así como los empleados de la
administración pública que utilizan cada vez más sistemas de inteligencia artificial
en su trabajo y deben supervisarlos. En el futuro, también desempeñarán un papel
crucial las organizaciones y empresas dedicadas a misiones orientadas al bien común.
Nuestro trabajo se centra en los siguientes tres grupos en particular:
Nuestro trabajo ofrece a los responsables de las políticas sugerencias concretas para
implementar la regulación de la IA en el contexto alemán. Hacemos hincapié en la
formulación de políticas que se alineen con los intereses de los usuarios e incorporen
las voces de la sociedad civil. Publicamos información para orientar la aplicación
orientada al usuario de la legislación europea sobre IA en Alemania.

CEPC Inteligencia artificial y administración de justicia 42


Ofrecemos a los empleados de la administración pública orientación práctica para el
desarrollo de competencias. Desarrollamos recursos accesibles para todos los niveles
de la administración para crear conciencia sobre los riesgos y oportunidades de las
tecnologías digitales y ayudar a identificar y fortalecer sus propias competencias y
áreas potenciales de desarrollo.
Apoyamos a las organizaciones y empresas que utilizan tecnologías digitales para
misiones de bien común, asegurándonos de que sus voces sean escuchadas para
asegurar la sostenibilidad de nuestro estado de bienestar social. Ofrecemos una
visión general de los avances en el campo de la IA generativa y los contextualizamos
desde una perspectiva de bien común. Además, abogamos por el fortalecimiento de
las infraestructuras digitales públicas.

Fundación Bertelsmann (2024). Supervisión nacional de la IA. Tareas,


poderes y opciones de implementación.
Enlace al sitio

Con la aprobación del Reglamento sobre Inteligencia Artificial (Reglamento


sobre IA, más conocido como Ley de IA) en el Parlamento Europeo en marzo
de 2024, la Unión Europea ha encontrado una respuesta a la pregunta de cómo
debe desarrollarse y aplicarse la IA en consonancia con los valores europeos tras
una larga maratón legislativa. Pero el viaje está lejos de terminar: en los próximos
tres años, el Reglamento debe traducirse en medidas eficaces de gobernanza y
cumplimiento a nivel europeo y de los Estados miembros.
Una de las cuestiones clave que debe aclararse oportunamente es la de
las estructuras de supervisión de los Estados miembros, en particular las
autoridades nacionales de supervisión. Ello se debe a que estas autoridades
desempeñarán un papel fundamental en el control y la aplicación de las
disposiciones del Reglamento sobre la IA y, en última instancia, decidirán sobre
la eficacia del mismo.
Para sentar las bases de este debate en Alemania, Reframe[Tech] encargó este
estudio administrativo y jurídico al Prof. Dr. Mario Martini y al Dr. Jonas Botta,
del Instituto Alemán de Investigación de la Administración Pública de Speyer.
El estudio identifica los requisitos de la estructura nacional de supervisión
asociados a la Ley de IA, los traslada a las condiciones de Alemania y analiza
la idoneidad de la Oficina Federal de Cárteles (BKartA), la Oficina Federal de
Seguridad de la Información (BSI), el Comisionado Federal de Protección de
Datos y Libertad de Información (BfDI) y la Agencia Federal de Redes (BNetzA)
para la supervisión de la IA en Alemania.
En el prólogo del estudio se dice lo siguiente:
[…] Die Studie zeigt auf, dass eine Zentralisierung der Aufsichtsbefugnisse auf
Bundesebene dazu beitragen kann, die Einhaltung der KI-Verordnung einheitlich,
bürokratiearm und nutzer:innenfreundlich zu überwachen. Gleichzeitig ist in der
föderal strukturierten Marktaufsicht in Deutschland eine umfassende Zentralisierung
nur mit einer Verfassungsänderung oder einem Staatsvertrag möglich. Aus
der Empfehlung der Autoren für eine Übertragung der Aufsichtsaufgaben an die
Bundesnetzagentur (BNetzA) leiten sich weitere Detailfragen ab, z. B. wie sich die
Kompetenzen anderer Behörden effektiv einbinden lassen. Zusätzlich braucht es
zeitnah einen Diskurs darüber, wie es gelingt, die europäischen Digitalgesetzgebungen
in ihrer Umsetzung und insbesondere in ihren Aufsichtsstrukturen stärker
zusammenzudenken. Zu beiden Fragestellungen braucht es weitere wissenschaftliche
Einsichten und politische Debattenräume”. […].

> TRADUCCIÓN

[…] El estudio muestra que una centralización de las las competencias de supervisión
a nivel federal puede ayudar a controlar el cumplimiento del Reglamento sobre
la IA de una manera estandarizada, fácil de usar y con poca burocracia. Al mismo

CEPC Inteligencia artificial y administración de justicia 43


tiempo, en la supervisión del mercado estructurada federalmente en Alemania,
una centralización completa sólo es posible con una enmienda constitucional
o un tratado federal-estatal. Desde la recomendación de los autores a favor de
transferir tareas de supervisión a la Agencia Federal de Redes (BNetzA), se plantean
otras cuestiones de detalle, por ejemplo, cómo pueden integrarse eficazmente las
competencias de otras autoridades. Además, es necesario un debate oportuno sobre
cómo puede armonizarse mejor la legislación digital europea en lo que respecta a
su aplicación y, en particular, a sus estructuras de supervisión. Ambas cuestiones
requieren más conocimientos científicos y espacios políticos para el debate. […].

Gobierno Federal (2018). Nationale Strategie für Kunstliche Intelligenz


(Estrategia nacional de Inteligencia Artificial)
Enlace al sitio

En noviembre de 2018, el gobierno alemán presentó una estrategia nacional para


la inteligencia artificial. Su objetivo es establecer la «AI Made in Germany» como
una marca internacional para aplicaciones de IA modernas, seguras y orientadas
al bienestar público basadas en el canon europeo de valores. Consta de 12 campos
de acción, centrados en promover la investigación y la innovación en Alemania
y en Europa, en estimular la actividad empresarial, apoyar la empleabilidad
mediante la formación continua, mejorar los servicios de la administración
pública, favorecer la reutilización de los datos, o alentar la elaboración de
estándares y normas y la cooperación tanto a nivel nacional como internacional.
El documento establecía que hasta 2025 el gobierno federal habría de
proporcionar unos cinco mil millones de euros destinados a estos fines. Los
objetivos referentes al uso de datos, seguridad de datos, derecho y ética de la
estrategia son los siguientes:
• Fomento de la investigación sobre el control y la trazabilidad de los
sistemas algorítmicos de predicción y toma de decisiones, así como sobre
la protección y la privacidad de los consumidores.
• Facilitar la disponibilidad de datos, por ejemplo, a través de posibles
asociaciones de datos entre empresas e instituciones de investigación
y estableciendo incentivos y condiciones marco para el intercambio
voluntario y conforme a la protección de datos (incluidos los procedentes
de proyectos de investigación financiados con fondos públicos).
• Adaptación de la legislación sobre competencia y derechos de autor
para aumentar la cantidad de datos utilizables sin revelar informaciones
personales o conocimientos técnicos operativos. Para adaptar las leyes
de competencia alemana y europea a los desafíos del cambio digital, el
gobierno federal ha creado la «Comisión de la Ley de Competencia 4.0».
(Kommission Wettbewerbsrecht 4.0).
• Adaptación de la Ley del Trabajo y de la Ley de Protección de Datos de los
Empleados (Arbeitsrecht und Beschäftigtendatenschutzgesetze).
• Creación de un marco regulatorio jurídicamente seguro para los actores de
la IA.
En el campo de acción nº 9, se dice que «La administración federal revisará y, en
su caso, ajustará el marco legal para las decisiones, servicios y productos basados
en algoritmos e inteligencia artificial, a fin de garantizar una protección efectiva
contra sesgos, discriminaciones, manipulaciones u otros usos indebidos».
El gobierno alemán está comprometido con un enfoque regulatorio basado en
el riesgo en el diseño del marco regulatorio para el uso de la IA. También está
siguiendo las recomendaciones de la Comisión de Ética de Datos.
La tarea de la Comisión de Deontología de Datos del Gobierno Federal, que

CEPC Inteligencia artificial y administración de justicia 44


comenzó su trabajo el 4 de septiembre de 2018, será aprovechar los conocimientos
científicos y técnicos para elaborar directrices éticas para la protección de la
persona, la preservación de la cohesión social y la salvaguarda y promoción
de la prosperidad en la era de la información. Encargada de proporcionar
recomendaciones para la acción y sugerencias para una posible legislación, a los
ministerios principales del Gobierno Federal en esta área -el Ministerio Federal
del Interior y la Comunidad y el Ministerio Federal de Justicia y Protección
del Consumidor-, en 2019 publicó un Dictamen al respecto: Opinion of the Data
Ethics Commission.

Algunos programas piloto en distintos tribunales


alemanes
Podemos distinguir los siguientes grupos:
1. Procedimientos masivos: situaciones donde hay un gran número de casos
similares o idénticos que deben ser gestionados simultáneamente. El desafío
radica en la cantidad, no necesariamente en la complejidad individual de
cada caso:
OLGA (acrónimo de Asistente del Tribunal Superior Regional), en el
Tribunal Superior Regional de Stuttgart. Sitio web del Tribunal Superior
de Stuttgart
Analiza los argumentos de apelación y las respuestas en los casos
pendientes relacionados con el escándalo de las emisiones de vehículos
diésel1, así como las sentencias impugnadas de primera instancia.
Entre otras cosas, se estudia qué modelo, tipo de motor y norma de
emisiones están involucrados, y si se ha realizado una llamada a revisión.
Los casos pueden ser clasificados según estas categorías para tratar
conjuntamente aquellos que son similares. Más información
FraUKe (acrónimo de Configurador Electrónico de Sentencias de
Fráncfort) fue desarrollado en el Tribunal de Distrito de Fráncfort en
colaboración con IBM y jueces para gestionar mejor la gran cantidad de
casos relacionados con los derechos de los pasajeros aéreos que se reciben
allí. El sistema es capaz de extraer automáticamente datos relevantes de
los documentos, como los aeropuertos de origen y destino o la distancia
del vuelo. De esta manera, se evitan tediosas tareas de copiar y pegar.
La base del sistema es un modelo preentrenado que ha sido adaptado al
lenguaje específico de estos casos.
Tanto en OLGA como en FraUKe se utilizan métodos de aprendizaje
automático para la extracción de entidades mediante la tecnología Watson
de IBM. Más información
En este ámbito de los denominados procedimientos masivos, hay otros
tribunales que están probando distintas herramientas, como el Tribunal
Regional de Ingolstadt, que actualmente evalúa el software de la startup
Codefy para la gestión de casos relacionados con el diésel, o los tribunales
regionales de Hildesheim y Osnabrück, en la Baja Sajonia. Como base para
el entrenamiento, se utilizan las disposiciones y decisiones tomadas por los

1 Se trata de uno de los mayores escándalos de la historia económica de Alemania. En 2015 las
autoridades de Estados Unidos descubrieron que el fabricante de automóviles alemán Volkswagen
había manipulado las pruebas de emisiones en sus motores diésel, los cuales superaban unas 40
veces lo establecido por la normativa europea. Desde entonces el fabricante ha tenido que pagar más
de 30.000 millones de euros de indemnizaciones, y a finales de mayo de 2025 la Audiencia Provincial
de Braunschweig condenó a dos exdirectivos del consorcio automovilístico a penas de cárcel por
estafa. (Fuente: RTVE.es)

CEPC Inteligencia artificial y administración de justicia 45


jueces que emplean el sistema, con el objetivo de personalizar un asistente.
La asistencia está diseñada para poder ser entrenada para cualquier tipo de
procedimiento masivo. Más información
2. Procedimientos extensivos: casos o procesos que implican la administración
de una gran cantidad de documentos, pruebas, o asuntos complejos que
requieren una gestión y análisis exhaustivos.
A pesar de esta distinción, las herramientas diseñadas para apoyar a los jueces
en procedimientos masivos también pueden ser potencialmente útiles en
procedimientos extensivos. Así, el software de Codefy antes citado se está
probando en el Tribunal Regional de Fráncfort en dos salas civiles y una sala
de delitos económicos. Una aplicación adicional está siendo evaluada por el
Ministerio de Justicia de Baja Sajonia con el objetivo de acelerar la revisión
de expedientes. Además, ya ha habido proyectos que utilizan la tecnología
Watson de IBM para una mejor estructuración de procedimientos extensivos.
Este tipo de tecnología puede ser útil tanto en procedimientos civiles como
penales.
3. Anonimización de sentencias judiciales
Un área común de aplicación de las metodologías de inteligencia artificial
es el proceso de anonimización de sentencias judiciales. La idea es que al
facilitar la anonimización, se puede aumentar la tasa de publicación de las
decisiones.
Un proyecto conjunto del Ministerio de Justicia de Baviera y la Universidad
Friedrich-Alexander de Erlangen-Núremberg se centra en el desarrollo de
una herramienta de anonimización basada en el modelo de lenguaje de deep
learning GOTT-BERT, con el objetivo de alcanzar un grado de precisión tan
alto que haga innecesaria la posterior edición manual.
El prototipo JANO fue puesto en marcha en septiembre de 2023, tras haber
sido desarrollado por empleados de la administración de justicia de Baden-
Württemberg y de Hesse en colaboración con una empresa de tecnologías
de la información. Esta herramienta examina las decisiones en busca de
datos personales y propone su anonimización. Las sugerencias de la IA son
luego revisadas y aprobadas por el personal judicial. De este modo, se espera
que la anonimización de las decisiones se pueda realizar con un esfuerzo
significativamente menor. Más información
4. Lectura automatizada de metadatos
Desde 2019, existe en Renania-Palatinado el proyecto SMART (Obtención
Semántica de Metadatos y Análisis de Textos), que tiene como objetivo
categorizar de manera ampliamente automatizada los documentos PDF
entrantes en el expediente electrónico mediante el uso de inteligencia
artificial. El proyecto también realiza otras tareas como la separación de
anexos, o la extracción de metadatos: los nombres de las partes involucradas,
el tipo de demanda o el valor en disputa. Desde junio de 2023, el sistema
también está siendo probado en Baviera. Más información
5. Apoyo en la administración de justicia penal
Un proyecto conjunto de la Oficina Central y de Contacto para
Ciberdelincuencia de Renania del Norte-Westfalia, la Fiscalía General de
Colonia, la Universidad del Sarre y Microsoft Alemania, tiene como objetivo
desarrollar un sistema que, mediante el uso de aprendizaje automático,
pueda identificar y clasificar automáticamente contenidos de imágenes
de pornografía infantil y juvenil. Un proyecto similar, llevado a cabo por la
justicia bávara en colaboración con investigadores de los Países Bajos, se
enfoca en la exploración del Darknet: el Dark Web Monitor - una especie de
motor de búsqueda para el Darknet. En junio de 2022, la Wiener Blockchain-

CEPC Inteligencia artificial y administración de justicia 46


Spezialisten también se unió al proyecto. Con la herramienta de análisis
GraphSense, los investigadores ahora pueden seguir mejor el rastro de
dinero en Bitcoins destinado a estas actividades delictivas.
Otro proyecto, «Aprendizaje automático para la identificación eficiente de
transacciones financieras sospechosas»– «Maschinelles Lernen zur effizienten
Identifikation auffälliger Finanztransaktionen» (MaLeFiz) - está investigando
en qué medida los métodos de aprendizaje automático pueden contribuir a
la identificación eficiente de estas transacciones. Más información
El proyecto Smart Sentencing, que tiene como objetivo extraer aspectos
relevantes para la determinación de penas a partir de sentencias penales
utilizando métodos de aprendizaje automático, se lleva a cabo en la
Universidad de Colonia en colaboración con el Instituto Fraunhofer para
Sistemas Inteligentes de Análisis e Información. A partir de ello, el objetivo
es crear una base de datos con las penas y los aspectos relacionados con la
determinación de las mismas, lo que ayudará a obtener una visión general de
las sanciones impuestas en todo el país.
En un sentido más amplio, el proyecto de investigación «Vigilancia por video
orientada a eventos con evaluación automatizada de la situación como
instrumento de prevención del suicidio en instituciones penitenciarias
(EVAS)»- Ereignisgesteuerte Videoüberwachung mit automatisierter
Situationseinschätzung als Instrument der Suizidverhinderung in
Justizvollzugsanstalten (EVAS) - también se integra en la administración de
justicia penal. Este proyecto busca que el uso de inteligencia artificial en las
prisiones ayude a detectar o prevenir suicidios de los reclusos. Como parte
de esta iniciativa, se ha desarrollado un sistema de asistencia con aprendizaje
automático que identifica en las imágenes de vigilancia por video situaciones
que podrían indicar un intento de suicidio planeado. Sin embargo, según la
respuesta del Gobierno Federal a una consulta parlamentaria de diputados del
Bundestag del 25 de agosto de 2023, el sistema todavía es escasamente fiable
para implementarlo. Aún está pendiente la decisión sobre la continuación
del proyecto.
6. Uso de grandes modelos de lenguaje en la justicia
En el marco de un determinado proyecto de investigación, la justicia de
Renania del Norte-Westfalia y Baviera comenzó a desarrollar y probar un
modelo lingüístico adaptado específicamente a las necesidades del poder
judicial. Sustentado por las universidades de Colonia y Munich, es el
resultado de la decisión adoptada en la 2ª Cumbre Digital del 25 de mayo
de 2023, acerca de priorizar el Modelo de Justicia en Lenguaje Generativo
(GSJ). Para financiar el mencionado proyecto de investigación, Renania del
Norte-Westfalia y Baviera solicitaron fondos de la iniciativa de digitalización
del poder judicial. El modelo se probará en varios proyectos piloto, que se
diseñarán en función de las necesidades del usuario utilizando métodos de
pensamiento de diseño legal. Más información

CEPC Inteligencia artificial y administración de justicia 47


Fuentes: Austria
Boletín Oficial Federal de
la República de Austria
Sitio web del Ministerio
Legislación
Federal de Justicia
Creación de la Oficina de Servicios para la Inteligencia Artificial

Bundesgesetz, mit dem das KommAustria-Gesetz und das


Telekommunikationsgesetz 2021 geändert werden, BGBl. I Nr. 6/2024,
ausgeben am 26. Februar 2024
(Ley Federal por la que se modifican la Ley KommAustria y la Ley de
Telecomunicaciones de 2021). Gaceta de Leyes Federales I, 26 de febrero de 2024,
núm. 6/2024.
Enlace a la disposición

Der Nationalrat hat beschlossen:


Artikel 1. Änderung des KommAustria-Gesetzes
Das Bundesgesetz über die Einrichtung einer Kommunikationsbehörde Austria
(KommAustria-Gesetz – KOG), BGBl. I Nr. 32/2001, zuletzt geändert durch das
Bundesgesetz BGBl. I Nr. 112/2023, wird wie folgt geändert:
1. Dem § 17 wird nach Abs. 7 folgender Abs. 8 angefügt:
„(8) Die RTR-GmbH hat unter der gemeinsamen Verantwortung beider
Geschäftsführer die Aufgabe des Auf baus und der Führung einer Servicestelle
für Künstliche Intelligenz („KI”) nach Maßgabe des § 20c und § 194a TKG 2021.”2.
In § 18 wird nach Abs. 3 folgender Abs. 3a eingefügt:
„(3a) Unbeschadet der Rechte der Generalversammlung und des Aufsichtsrates
gemäß dem GmbH-Gesetz, RGBl. Nr. 58/1906, obliegt die Aufsicht über die
Tätigkeit der RTR-GmbH als Servicestelle für Künstliche Intelligenz
1. soweit eine Tätigkeit nach § 20c Abs. 3 einen unmittelbaren Zusammenhang
mit Aufgaben der Aufsicht und Regulierung elektronischer Medien und zur
Förderung der Medien durch die KommAustria aufweist, dem Vorsitzenden
der KommAustria;
2. soweit es sich um Tätigkeiten nach § 20c Abs. 3 außerhalb des
Anwendungsbereichs der Z 1 handelt, dem Bundeskanzler;
3. soweit es sich um Tätigkeiten nach § 194a TKG 2021 handelt, dem
Bundesminister für Finanzen.
Das jeweilige Organ kann in Erfüllung seines Aufsichtsrechtes der RTR-GmbH
begründete Weisungen erteilen; im Fall der Z 2 und 3 sind diese Weisungen schriftlich
zu erteilen und zu veröffentlichen.
“3. In § 19 Abs. 3 Z 5a wird folgende lit. f angefügt:
„f) KI-Servicestelle;”
4. Nach § 20b wird folgender § 20c eingefügt:
„Künstliche Intelligenz
§ 20c. (1) Die RTR-GmbH hat im Rahmen der ihr gemäß § 17 Abs. 8 unter der
gemeinsamen Verantwortung der beiden Geschäftsführer zum Auftrag gemachten
Servicestelle zum Kompetenzauf bau bei der Konzeption und der Nutzung von
Anwendungen im Bereich der Künstlichen Intelligenz für die Bereitstellung eines
vielfältigen Informations- und Beratungsangebots zu sorgen und als zentrale
Serviceeinrichtung für KI-Projekte und Anwendungen in den Fachbereichen
Medien und Telekommunikation und Post zu fungieren („Servicestelle”).
(2) Als Beitrag zur Erfüllung des in Abs. 1 dargestellten Zwecks hat die RTR-GmbH
ein Informationsportal zu betreiben, auf dem Projekte und Initiativen dargestellt
werden, die dem Einsatz von KI dienen, insbesondere solche, die aus öffentlichen

CEPC Inteligencia artificial y administración de justicia 48


Mitteln gefördert werden. Dazu haben jedenfalls die betreffenden Förderstellen
des Bundes dafür zu sorgen, dass die Fördernehmer nachfolgend der RTR-GmbH
die wesentlichen Projektdaten bereitstellen.
(3) Im Rahmen dieser Servicestelle umfasst die Aufgabe der RTR-GmbH im
Fachbereich Medien die nachstehenden Tätigkeiten:
1. Bereitstellung von KI-Informationen für die interessierte
Fachöffentlichkeit, insbesondere Web-Leitfäden für KI-Einsatz und Best
Practices im Medienbereich;
2. Beratung öffentlicher und privater Rechtsträger zum KI-Einsatz im
Medienbereich;
3. Durchführung von Studien und Analysen zum KI-Einsatz im
Medienbereich;
4. Erstellung und Veröffentlichung von Publikationen zu Fragen der KI im
Medienbereich;
5. Planung und Durchführung von Fachveranstaltungen zu Fragen der KI im
Medienbereich;
6. regelmäßige zielgerichtete Kommunikation und regelmäßiger Austausch
mit den von KI im Medienbereich betroffenen Marktteilnehmern.
(4) Berührt eine Tätigkeit der Servicestelle im Fachbereich Telekommunikation
und Post Fragen der Medien und Meinungsvielfalt sowie medienpolitische
Themenstellungen in Zusammenhang mit KI, so hat der Geschäftsführer für
den Fachbereich Telekommunikation und Post für die weitere Vorgangsweise
zur Behandlung des Themas in seinem Fachbereich das Einvernehmen mit dem
Geschäftsführer des Fachbereichs Medien herzustellen.
(5) Weist eine Tätigkeit im Rahmen der Servicestelle einen unmittelbaren
Zusammenhang mit den der KommAustria übertragenen Aufgaben der Aufsicht
und Regulierung elektronischer Medien und zur Förderung der Medien auf, so
bedarf die Tätigkeit für ihre Durchführung des vorherigen Einvernehmens mit
dem Vorsitzenden der KommAustria.
(6) Bei der RTR-GmbH wird ein „Beirat für Künstliche Intelligenz” (KI-Beirat)
eingerichtet. Die Aufgaben des Beirates, zu denen er auch Empfehlungen
beschließen kann, sind:
1. Information und Beratung der mit KI-Angelegenheiten befassten
Mitglieder der Bundesregierung sowie der RTR-GmbH über aktuelle
Entwicklungen im Bereich KI. Dies umfasst sowohl technische als auch
ethische und gesellschaftliche Aspekte;
2. Beobachtung der technologischen Entwicklung von KI in- und außerhalb
der Europäischen Union und Bewertung der damit verbundenen Chancen
und Herausforderungen für Österreich;
3. Fokussierung durch Unterstützung der mit KI-Angelegenheiten
befassten Mitglieder der Bundesregierung sowie der RTR-GmbH bei der
Priorisierung der vielfältigen KI-Aspekte und der Konzentration auf die
wichtigsten Themen;
4. Strategische Planung und Beratung der Bundesregierung im Rahmen
des AI Policy Forums bei der Entwicklung und Umsetzung der Strategie für
Künstliche Intelligenz einschließlich der Festlegung von Zielen, Prioritäten
und Maßnahmen.
(7) Der Beirat besteht aus elf Mitgliedern. Drei Mitglieder sind vom Bundeskanzler
sowie acht Mitglieder vom Bundesminister für Finanzen für eine Funktionsperiode
von vier Jahren zu bestellen und haben über ausgezeichnete Kenntnisse in den
Bereichen Ethik, Forschung, Ökonomie, Recht oder Technik zu verfügen. Aus dem
Kreis der Mitglieder des Beirats sind mit einfacher Mehrheit bei Anwesenheit von
zumindest zwei Dritteln der Mitglieder eine Vorsitzende bzw. ein Vorsitzender
und eine stellvertretende Vorsitzende bzw. ein stellvertretender Vorsitzender zu
bestellen.
(8) Die Mitglieder haben Anspruch auf Ersatz der angemessenen Reisekosten und
Barauslagen. Der Bundesminister für Finanzen hat im Einvernehmen mit dem
Bundeskanzler mit Verordnung eine Geschäftsordnung für den „Beirat für KI” zu

CEPC Inteligencia artificial y administración de justicia 49


erlassen. Die für Reisekosten anfallenden Kosten trägt die RTR-GmbH aus den
nach dem folgenden Absatz zur Verfügung gestellten Mitteln.
(9) Zur Finanzierung der Erfüllung der Aufgaben der Servicestelle einschließlich
des Aufwand für den Fachbeirat sind der RTR-GmbH jährlich 700 000 Euro aus
dem Bundeshaushalt per 31. Jänner zu überweisen. Für die Jahresplanung und
die Berichterstattung über die Aktivitäten ist § 20 Abs. 6 anzuwenden. Über die
Verwendung dieser Mittel ist zudem von der RTR-GmbH jährlich bis 30. April
des Folgejahres dem Bundeskanzler und dem Bundesminister für Finanzen zu
berichten. Der genannte Betrag vermindert oder erhöht sich ab dem Jahr 2026
in jenem Maße, in dem sich der von der Bundesanstalt Statistik Österreich
verlautbarte Verbraucherpreisindex 2025 oder der an seine Stelle tretende Index
des Vorjahres verändert hat.”
5. In § 44 wird folgender Abs. 36 angefügt:
„(36) § 17 Abs. 8, § 18 Abs. 3a, § 19 Abs. 3 Z 5a, § 20c samt Überschrift und § 46 in
der Fassung des Bundesgesetzes BGBl. I Nr. 6/2024 treten mit 1. Jänner 2024 in
Kraft.”
6. Dem § 46 wird folgender Satz angefügt:„Die Vollziehung des § 20c Abs. 9 obliegt
dem Bundesminister für Finanzen im Einvernehmen mit dem Bundeskanzler.”

Artikel 2. Änderung des Telekommunikationsgesetzes 2021


Das Bundesgesetz, mit dem ein Telekommunikationsgesetz
(Telekommunikationsgesetz 2021 – TKG 2021) erlassen wird, BGBl. I Nr. 190/2021,
zuletzt geändert durch das Bundesgesetz BGBl. I Nr. 47/2023, wird wie folgt geändert:
1. Im Inhaltsverzeichnis wird nach dem Eintrag zu § 194 folgender Eintrag eingefügt:
„§ 194a. Aufgaben der Servicestelle für Künstliche Intelligenz”
2. Nach § 194 wird folgender § 194a samt Überschrift eingefügt:
„Aufgaben der Servicestelle für Künstliche Intelligenz
§ 194a. (1) Im Rahmen der nach § 17 Abs. 8 KOG bei der RTR-GmbH eingerichteten
„Servicestelle für Künstliche Intelligenz” (KI) umfasst die Aufgabe des Fachbereichs
Telekommunikation und Post jedenfalls folgende Unterstützungs- und
Beratungsleistungen für die Öffentlichkeit, insbesondere in Bezug auf:
1. die regulatorischen Rahmenbedingungen bei der Entwicklung und den Einsatz
von KI in Unternehmen und öffentlichen Rechtsträgern;
2. die regulatorischen Rahmenbedingungen für die technische Dokumentation
von KI-Systemen einschließlich der Informationen für Nutzerinnen und Nutzer;
3. die Förderung des Wissensauf baus und -austausches zu KI und den Märkten
für KI-Anwendungen, insbesondere durch Durchführung von Studien, Analysen
und Fachveranstaltungen;
4. die Auswirkungen von KI auf Cyber-Sicherheit;
5. bereits eingesetzte KI in Hochrisikobereichen.
Zur Erfüllung dieser Aufgaben kommt der Servicestelle, der Querschnittsmaterie
entsprechend, auch eine koordinierende Funktion zu.
(2) Berührt eine Tätigkeit der Servicestelle im Fachbereich Telekommunikation
und Post Fragen der Medien und Meinungsvielfalt sowie medienpolitische
Themenstellungen in Zusammenhang mit KI, so hat der Geschäftsführer für
den Fachbereich Telekommunikation und Post für die weitere Vorgangsweise
zur Behandlung des Themas in seinem Fachbereich das Einvernehmen mit dem
Geschäftsführer des Fachbereichs Medien herzustellen.”
3. Dem § 217 wird folgender Abs. 3 angefügt:
„(3) Das Inhaltsverzeichnis und § 194a samt Überschrift in der Fassung des
Bundesgesetzes BGBl. I Nr. 6/2024 treten mit 1. Jänner 2024 in Kraft.”

CEPC Inteligencia artificial y administración de justicia 50


> TRADUCCIÓN

El Consejo Nacional ha decidido:


Articulo 1. Modificación de la ley de KommAustria
Ley Federal sobre el establecimiento de una autoridad de comunicaciones en Austria
(Ley KommAustria - KOG), Boletín Oficial Federal , I N° 32/2001, modificada por
última vez por la Ley Federal Boletín Oficial Federal I N° 112/2023, se modifica como
sigue:
1. Se añade el siguiente apartado 8 al artículo 17, después del apartado 7:
(8) RTR-GmbH, bajo la responsabilidad conjunta de ambos directores generales,
tiene la tarea de crear y gestionar una Oficina de Servicios para la Inteligencia
Artificial («IA») de conformidad con el artículo 20c y el artículo 194a de la TKG de
2021 [La Ley de Telecomunicaciones de 2021].
2. En el artículo 18, después del apartado 3 se añade el siguiente apartado 3a:
«(3a) Sin perjuicio de los derechos de la junta general y del consejo de supervisión
de conformidad con la Ley GmbH, RGBl. No. 58/1906 [Ley de Sociedades de
Responsabilidad Limitada], es responsable de supervisar las actividades de RTR-
GmbH como Oficina de Servicios para la Inteligencia Artificial:
1. En la medida en que una actividad conforme al artículo 20c, apartado 3,
esté directamente relacionada con las tareas de supervisión y regulación
de los medios electrónicos y de promoción de los medios por parte de
KommAustria, el presidente de KommAustria;
2. En la medida en que se trate de actividades de conformidad con el
artículo 20c, apartado 3, fuera del ámbito de aplicación del artículo Z 1, el
Canciller Federal;
3. En la medida en que se trate de actividades de conformidad con el artículo
194a TKG de 2021, el Ministro Federal de Finanzas.
El organismo respectivo podrá dar instrucciones justificadas a RTR-GmbH en
cumplimiento de sus derechos de supervisión; en el caso de los puntos 2 y 3, estas
instrucciones deberán darse por escrito y publicarse».
3. En el artículo 19, apartado 3, Z 5a, se añade la siguiente letra f:
«f) Oficina de servicios para la IA;»
4. Después del artículo 20b, se inserta el siguiente artículo 20c:
Artículo 20c. (1) El RTR-GmbH ha recibido el encargo, como parte del centro de
servicios asignado según el artículo 17, apartado 8, bajo la responsabilidad conjunta
de los dos directores generales, de desarrollar competencias en la concepción
y utilización de aplicaciones en el campo de la inteligencia artificial para el
suministro de una amplia gama de información y para proporcionar servicios de
asesoramiento y actuar como servicio central para proyectos y aplicaciones de
IA en las áreas de medios, telecomunicaciones y correos («Oficina de servicios»).
(2) Para contribuir al cumplimiento del objetivo establecido en el apartado 1, el
RTR-GmbH deberá gestionar un portal de información en el que se presenten
proyectos e iniciativas que sirvan para el uso de la IA, en particular aquellos que
estén financiados con fondos públicos. En cualquier caso, los correspondientes
organismos federales de financiación deben asegurarse de que los beneficiarios
de la financiación proporcionen posteriormente a RTR-GmbH los datos
esenciales del proyecto.
(3) En el marco de esta Oficina de servicios, las tareas de RTR-GmbH en el
departamento de medios incluyen las siguientes actividades:
1. Proporcionar información sobre IA al público profesional interesado, en
particular guías web para el uso de la IA y mejores prácticas en el sector de
los medios de comunicación;
2. Asesorar a personas jurídicas públicas y privadas sobre el uso de la IA en
el sector de los medios;
3. Realizar estudios y análisis sobre el uso de la IA en el sector de los medios;

CEPC Inteligencia artificial y administración de justicia 51


4. Creación y publicación de publicaciones sobre temas de IA en el sector
de los medios;
5. Planificar y realizar eventos especializados sobre cuestiones de IA en el
sector de los medios;
6. Comunicación específica periódica e intercambio regular con los
participantes del mercado afectados por la IA en el sector de los medios.
(4) Si una actividad de la Oficina de Servicios en el área de Telecomunicaciones y
Correos toca temas de medios y diversidad de opiniones, así como cuestiones de
política de medios en relación con la IA, el gerente del área de Telecomunicaciones
y Correos debe coordinar con el gerente del área de Medios para determinar el
procedimiento a seguir en su área.
(5) Si una actividad en el marco de la Oficina de Servicios está directamente
relacionada con las tareas de supervisión y regulación de los medios electrónicos
asignadas a KommAustria y con la promoción de los medios, dicha actividad
requiere el acuerdo previo con el presidente de KommAustria para su ejecución.
(6) En el RTR-GmbH se creará un «Consejo Asesor para la Inteligencia Artificial»
(Consejo Asesor IA). Las tareas del Consejo Asesor, sobre el que también puede
hacer recomendaciones, son:
1. Información y asesoramiento a los miembros del Gobierno federal y
de RTR-GmbH que se ocupan de cuestiones de IA sobre los desarrollos
actuales en el campo de la IA. Esto incluye aspectos técnicos, así como
éticos y sociales;
2. Seguir el desarrollo tecnológico de la IA dentro y fuera de la Unión
Europea y evaluar las oportunidades y desafíos asociados para Austria;
3. Centrarse en ayudar a los miembros del Gobierno federal implicados en
asuntos de IA y a RTR-GmbH a priorizar los muchos aspectos diferentes de
la IA y concentrarse en los temas más importantes;
4. Planificación estratégica y asesoramiento al Gobierno federal en el marco
del AI Policy Forum sobre el desarrollo e implementación de la estrategia
de inteligencia artificial, incluyendo la definición de metas, prioridades y
medidas.
(7) El Consejo Asesor está compuesto por once miembros. Tres miembros deben
ser designados por el Canciller Federal y ocho miembros por el Ministro Federal
de Finanzas para un período de funciones de cuatro años, y deben poseer
conocimientos destacados en los campos de ética, investigación, economía,
derecho o tecnología. De entre los miembros del consejo asesor, se debe elegir
por mayoría simple, con la presencia de al menos dos tercios de los miembros, a
un presidente y un vicepresidente.
[…]
5. Se añade al artículo 44 el siguiente apartado 36:
«(36) El artículo 17(8), el artículo 18(3a), el artículo 19(3)(5a), el artículo 20c incluido
el encabezamiento y el artículo 46 en la versión de la Gaceta de Leyes Federales
I Nº 6/2024 entrarán en vigor el 1 de enero de 2024».
6. Se añade al artículo 46 la siguiente frase: «La aplicación del artículo 20c, apartado
9, es responsabilidad del Ministro Federal de Finanzas de acuerdo con el Canciller
Federal».
Artículo 2. Enmienda a la Ley de Telecomunicaciones 2021
Ley federal por la que se promulga una ley de telecomunicaciones (Ley de
Telecomunicaciones de 2021 - TKG 2021), Boletín Oficial Federal I n.º 190/2021,
modificada por última vez por la Ley federal en el Boletín Oficial Federal I N° 47/2023
como sigue:
1. En el índice, después de la entrada relativa al artículo 194, se inserta la siguiente
entrada: «Artículo 194a. Tareas del Centro de Servicios de Inteligencia Artificial».
2. Después del artículo 194, se inserta el siguiente artículo 194a, incluido el título:
«Tareas del Centro de Servicios de Inteligencia Artificial».
Artículo 194a

CEPC Inteligencia artificial y administración de justicia 52


(1) Como parte del «Centro de Servicios para Inteligencia Artificial» (AI) creado
Notas: en el RTRGmbH de conformidad con el artículo 17, apartado 8 de la KOG [Ley
KommAustria], el Departamento de Telecomunicaciones y Correos incluye los
La Autoridad Austriaca siguientes servicios de apoyo y asesoramiento para el público, en particular con
de Comunicaciones
respecto a:
(KommAustria) es la
autoridad independiente y 1. Las condiciones del marco regulatorio para el desarrollo y uso de la IA en
autónoma de regulación y empresas y entidades de derecho público;
supervisión de los medios
electrónicos de audio y 2. Las condiciones del marco regulatorio para la documentación técnica de
los medios electrónicos los sistemas de IA, incluida la información para los usuarios;
audiovisuales en Austria. Su 3. La promoción del desarrollo y el intercambio de conocimientos sobre
organización, actividades
la IA y los mercados para aplicaciones de IA, especialmente mediante la
y objetivos se regulan en la
Ley KommAustria (KOG).
realización de estudios, análisis y eventos especializados;
4. Los efectos de la IA en la ciberseguridad;
La Rundfunk und Telekom
Regulierungs-GmbH (RTR) 5. La IA ya implementada en áreas de alto riesgo.
(Sociedad de Regulación
de Radiodifusión y
Para cumplir con estas tareas, la Oficina de Servicios también desempeña una
Telecomunicaciones- función de coordinación, de acuerdo con la naturaleza transversal de la materia.
Sociedad de Responsabilidad (2) Si una actividad de la Oficina de Servicios en el área de Telecomunicaciones y
Limitada) es una institución
Correos toca temas de medios y diversidad de opiniones, así como cuestiones de
estatal fundada en abril de
2001 sobre la base de la Ley política de medios en relación con la IA, el gerente del área de Telecomunicaciones
KommAustria, y cumple y Correos debe coordinarse con el gerente del área de Medios para determinar el
mandatos estatutarios en procedimiento a seguir en su área.
relación con la regulación,
el desarrollo y la promoción 3. Se añade el siguiente apartado 3 al artículo 217:
de los mercados austriacos «(3) El índice y el Artículo 194a, junto con el título, en la versión de la Ley Federal
de medios de comunicación,
BGBl. I No. 6/2024, entrarán en vigor el 1 de enero de 2024».
telecomunicaciones y correos.
La Telekom-Control-
Kommission (TKK) se fundó
en 1997 como autoridad Documentación complementaria
reguladora del mercado de
las telecomunicaciones ) y
de la Comisión de Control Ministerio Federal de Justicia. «Einsatz von künstlicher Intelligenz bei der
Postal (PCK). Más información
Anonymisierung von Gerichtsentscheidungen»
(Proyecto «Uso de inteligencia artificial en la anonimización de decisiones
judiciales»).
Enlace al sitio

En Austria, las sentencias de los tribunales ordinarios se publican en el sistema federal


de información jurídica y, por lo tanto, están a disposición de todos los solicitantes de
justicia. Por tanto, todos los datos personales, así como la información que permita
sacar conclusiones sobre la cosa o la persona, deben eliminarse previamente, un
proceso que antes era manual y que a veces requería una considerable capacidad de
personal.
Por este motivo, el Ministerio Federal de Justicia, junto con el Centro Federal de
Computación, inició un proyecto para utilizar inteligencia artificial para anonimizar
las decisiones judiciales. Esto hizo posible aumentar significativamente la eficiencia
del proceso y reducir significativamente los costos de personal necesarios.
En 2022 el proyecto obtuvo el premio eAward en la categoría de «Aprendizaje
automático e inteligencia artificial», importante distinción empresarial en el campo
de laTecnología de la información en Austria y los países de habla alemana. Lo otorga
anualmente Report-Verlag, una de las principales editoriales austriacas especializadas,
desde 2005, con el fin de premiar proyectos innovadores que estimulan el cambio
tecnológico en la sociedad, la economía y la administración.

CEPC Inteligencia artificial y administración de justicia 53


Fuentes: Bélgica
Sitio web de la
Comisión Europea
Legislación
Moniteur Belge

Arrêté royal instituant un Comité d’orientation en matière


d’intelligence artificielle
(Real Decreto por el que se crea un Comité de Política de Inteligencia Artificial,
25 de mayo de 2024). Monitor Belga, 6 de junio de 2024, núm. 121.
Enlace a la disposición

> Resumen Disposizioni e deleghe al Governo in materia di intelligenza


Real Decreto por el que se crea un Comité de orientación en materia de
inteligencia artificial, cuya misión es dar opiniones al gobierno federal sobre
cuestiones relativas a la inteligencia artificial y ser el punto de contacto único a
nivel federal para cuestiones relativas a la inteligencia artificial, con excepción
de las solicitudes de opiniones a petición de un servicio federal o de un miembro
del gobierno en el Comité Asesor de Ética de los Datos y de la Inteligencia
Artificial.

Arrêté royal portant création d’un Comité Consultatif d’Ethique des


Données et de l’Intelligence Artificielle de l’administration fédéral
(Real Decreto por el que se crea un Comité Asesor de Ética de Datos e Inteligencia
Artificial para la Administración federal, 4 de octubre de 2023). Monitor Belga, 1
de diciembre de 2023, núm. 312.
Enlace a la disposición

> Resumen
El Comité brinda asesoramiento científico sobre cuestiones éticas, legales,
económicas, sociales y ambientales relacionadas con la inteligencia artificial, la
robótica y tecnologías relacionadas que se utilizan dentro del gobierno y que
pueden tener un impacto significativo en los intereses individuales o sociales.
El Comité formula sus dictámenes a petición de un servicio federal o de un
miembro del gobierno federal, o por iniciativa propia en nombre de un servicio
federal o de un miembro del gobierno federal.

Documentación complementaria

Plan nacional de convergencia para el desarrollo de la inteligencia


artificial.
Enlace al documento

El objetivo de la estrategia nacional de IA es proporcionar un plan de acción


estratégico y operativo para el desarrollo de la IA en Bélgica. En este plan se
presentan las acciones en curso y los planes para el futuro en torno a tres pilares
estratégicos y prioridades temáticas:
• Crear un impacto tecnológico apoyando una experiencia de alta calidad en
IA y esbozando una estrategia de datos responsable para la IA;
• Garantizar beneficios sociales y económicos fomentando el desarrollo

CEPC Inteligencia artificial y administración de justicia 54


continuo de competencias en IA, construyendo una economía de IA sólida
y próspera y optimizando los servicios públicos a través de la IA;
• Crear las condiciones adecuadas para el desarrollo de una sociedad ética,
resistente y segura gracias a la IA.
El plan nacional de convergencia contiene nueve objetivos en los que el gobierno
federal, junto con sus socios, quiere centrarse en los próximos años:
1. Avanzando en una IA confiable
2. Garantizar la ciberseguridad
3. Fortalecer la competitividad y el atractivo de Bélgica a través de la IA
4. Desarrollar una economía basada en datos y una infraestructura de alto
rendimiento
5. La IA es fundamental para la atención sanitaria
6. Al servicio de la movilidad sostenible
7. Proteger el medio ambiente
8. Proporcionar una formación mejor y permanente
9. Proporcionar a los ciudadanos mejores servicios y protección.
Para guiar la implementación de este plan nacional, se establecerá un Comité
Directivo conjunto dentro de Política y Apoyo (BOSA) y Economía. Además
de formular propuestas sobre el funcionamiento del programa de IA, este
comité actuará como punto de contacto central a nivel federal para cuestiones
relacionadas con la IA.

JUST ON WEB (Aplicación de Inteligencia Artificial en procedimientos


judiciales)
Enlace al sitio

¿Impugnar una multa, consultar un expediente judicial o constituir una empresa?


Just‑on‑web reúne todos los servicios en línea del FPS Justice en una única plataforma.
A través de Just‑on‑web puede emprender acciones legales, ver y gestionar casos,
enviar y solicitar documentos. Sencillo, eficiente y completamente digital, donde y
cuando quieras.
Ofrece los siguientes servicios en línea:
• Consulte, pague o impugne sus multas como ciudadano o empresa.
• Consulte su expediente y las resoluciones del juzgado de lo penal, el juzgado de
policía y el juez de paz.
• Solicite protección para personas vulnerables y gestione sus procedimientos en
curso.
• Solicite una liquidación colectiva de deudas y gestione su expediente.
• Solicite, consulte o descargue extractos y copias de sus documentos de estado
civil: certificados de matrimonio o nacimiento, por ejemplo.
• Presente sus documentos, escritos y cartas ante un tribunal utilizando e-Deposit.

CEPC Inteligencia artificial y administración de justicia 55


Fuentes: Estonia
Ministerio de Economía El caso de Estonia resulta interesante por ser un referente mundial en el
y Comunicaciones de la
República de Estonia
desarrollo de la administración electrónica. Asimismo, este país báltico ha sido
líder en la implementación de la inteligencia artificial. Es en esta línea donde se
República de Estonia.
inscriben los servicios de IA llamados «kratts»(*). «Un “kratt” es un sistema de
Autoridad del Sistema de
información estatal inteligencia artificial que se basa en un algoritmo de software autónomo, capaz
de aprender y que realiza tareas que tradicionalmente realizaban los humanos»,
según la definición que aparece en el sitio web del Sistema de Información
Estatal estonio. Además de incrementar la productividad de la economía, estos
sistemas «tienen el potencial de llevar los servicios públicos a un nuevo nivel».
En 2019 el Ministerio de Asuntos Económicos y Comunicaciones y la Oficina
del Gobierno encargaron a un grupo de expertos procedentes de los sectores
público y privado la elaboración de propuestas concretas que permitieran el
máximo aprovechamiento de los «kratts» y las medidas que favorecieran su
desarrollo. Entre esas propuestas se encontraban también aquellas relacionadas
con el ámbito jurídico de Estonia, de tal manera que se garantizaran la seguridad
y la claridad necesarias. El trabajo de este grupo de expertos daría lugar
posteriormente a la Estrategia Nacional de Inteligencia Artificial de Estonia,
también conocida como Estrategia Kratt.
Uno de los proyectos que ya están en marcha es Bürokratt, el asistente virtual
estatal estonio, una aplicación que permite a los ciudadanos utilizar servicios
públicos y de información con asistentes virtuales a través de la interacción
basada en voz. El Sistema de Información Estatal lo define como «una red
interoperable de soluciones de inteligencia artificial de los ámbitos público y
privado que, desde el punto de vista del usuario, actúa como un canal único para
los servicios públicos y la información».
Por otra parte, en 2019 la revista digital Wired publicó un artículo del que se
hicieron eco numerosos medios a nivel mundial, donde se afirmaba que el
Ministerio de Justicia de Estonia había solicitado el diseño de un «juez robot»
destinado a decidir sobre litigios de cuantía inferior a 7.000 euros, con el fin de
aliviar la carga de trabajo atrasado en las oficinas judiciales. Posteriormente, en
2022, el departamento estonio desmintió esta información, aunque señaló que
había en marcha dos proyectos de desarrollo de software en los que se utiliza
el aprendizaje automático: uno de transcripción de las audiencias judiciales y
otro de anonimización de las decisiones judiciales, en línea con lo que se viene
haciendo en otros países.
Por último hay que decir que en Estonia no existe ninguna regulación
específica sobre inteligencia artificial, en general, ni sobre su aplicación a la
Administración de Justicia. En cambio, sí están en marcha diversas estrategias
a nivel gubernamental así como aplicaciones concretas a la administración de
justicia. Más información
(*) Un «kratt» es una criatura mágica de la mitología estonia. Por existir ciertos paralelismos con los
fines de la inteligencia artificial, el gobierno estonio decidió utilizarlo como metáfora de la IA.

Legislación
No se ha encontrado.

CEPC Inteligencia artificial y administración de justicia 56


Documentación complementaria
Ministerio de Economía y Comunicaciones (2021). Estonia’s National
Artificial Intelligence Strategy or Kratt Strategy for 2022–2023
(Estrategia Nacional de Inteligencia Artificial de Estonia o Estrategia Kratt para
2022-2023).
Enlace al documento

Autoridad del Sistema de Información Estatal (2020). Asistente virtual


Bürokratt.
Enlace al sitio

Ministerio de Economía y Comunicaciones (2019). Report of Estonia’s AI


Taskforce (Informe del grupo de trabajo sobre IA de Estonia).
Enlace al documento

En el punto 6.4 se aborda la conformación del espacio judicial para la aplicación


de la inteligencia artificial en forma de análisis y propuestas:
6.4.1 Summary of the legal analysis
There is no need for substantial changes in the basics of the legal system and there is
also no need for a socalled harmonised “kratt act” for the following reasons:
• Both now and in the foreseeable future, kratts are and will be human tools,
meaning that they perform tasks determined by humans and express the
intention of humans directly or indirectly (also if the human has granted
seemingly large “freedom” to the kratt);
• Today, there are no known so-called super agents that are able to operate
independently and have intentions independent of humans, so the subjects of
the legal regulations are humans.
• For the sake of legal clarity, it should be ensured that when exercising public
powers or performing other public tasks, the actions of a kratt will be attributed
to the state through the company or body that used the kratt in the meaning
of state liability. In private relationships, for both natural and legal persons,
the kratt’s actions should be considered the actions of the kratt’s user. Matters
related to criminal liability need to be expanded, e.g. to include kratts and their
use by expanding the definition of instrumental execution.
Granting artificial intelligence (agent) a subject of law status would create illusionary
legal certainty and would not solve issues of liability.
There is no need for a central register of autonomous intelligent technologies that do
not have a subject of law status, as this would constitute unreasonable anticipatory
regulation and can be solved by selfregulation tools, such as open standards and
information exchange. We define three necessary axes for developing legislation
with regard to the wider implementation of kratts:
• Remove outdated norms — which do not consider or allow the use of kratts and
therefore hinder the benefits gained from kratts for the society — from the legal
system;
• Ensure legal clarity required for the functioning of societ on the one hand by
including sufficient provisions regarding the use of kratts in the valid legislation
(i.e. legal acts contain norms which can be applied in cases related to the use
of kratts) and, on the other hand, by defining liability with sufficient clarity
regarding the use of kratts (including who is liable, to what extent, how liability
is distributed, etc.);
• Establish rules and limitations for the development of kratts, their use, and legal
matters related to them so far, as there would be grounds to presume significant
harmful consequences to the interests and rights of humans, communities, and
the society without state intervention.

CEPC Inteligencia artificial y administración de justicia 57


> TRADUCCIÓN

6.4.1. Resumen del análisis jurídico


No habrá necesidad de cambios sustanciales en los fundamentos del sistema jurídico y
tampoco será necesaria la llamada «ley kratt» armonizada por las siguientes razones:
• Tanto ahora como en el futuro previsible, los «kratts» son y serán herramientas
humanas, lo que significa que realizan tareas determinadas por los humanos y
expresan la intención de los humanos directa o indirectamente.
• En la actualidad, no se conocen los llamados superagentes capaces de operar de
forma autónoma y tener intenciones independientes de los humanos, por lo que
los sujetos de las normativas legales son los humanos.
• En aras de la claridad jurídica, debe garantizarse que cuando se ejerzan poderes
públicos o se realicen otras tareas públicas, las acciones de un «kratt» se atribuirán
al Estado a través de la empresa u organismo que utilizó el «kratt» en el sentido
de la responsabilidad del Estado. En las relaciones privadas, tanto para personas
físicas como jurídicas, las acciones del «kratt» deben considerarse acciones
del usuario del «kratt». Es necesario ampliar las cuestiones relacionadas con la
responsabilidad penal, por ejemplo, para incluir los «kratts» y su uso ampliando
la definición de ejecución instrumental.
Otorgar a la inteligencia artificial (agente) la condición de sujeto de derecho crearía
una seguridad jurídica ilusoria y no resolvería los problemas de responsabilidad.
No hay necesidad de un registro central de tecnologías inteligentes autónomas
que no tengan estatus de sujeto de derecho, ya que esto constituiría una
regulación anticipatoria irrazonable y puede resolverse mediante herramientas de
autorregulación, como las normas abiertas y el intercambio de información.
Definimos tres ejes necesarios para desarrollar la legislación relativa a la aplicación
más amplia de los «kratts»:
• Eliminar del ordenamiento jurídico las normas obsoletas, que no tienen en cuenta
o no permiten el uso de los «kratts» y, por tanto, obstaculizan los beneficios que
la sociedad obtiene de ellos;
• Garantizar la claridad jurídica necesaria para el funcionamiento de la sociedad,
por una parte, incluyendo disposiciones suficientes sobre el uso de «kratts»
en la legislación vigente (es decir, que los actos jurídicos contengan normas
que puedan aplicarse en casos relacionados con el uso de «kratts») y, por otra,
definiendo con suficiente claridad la responsabilidad en relación con el uso de
«kratts» (incluido quién es responsable, en qué medida, cómo se distribuye la
responsabilidad, etc.);
• Establecer normas y limitaciones para el desarrollo de los «kratts», su uso y los
asuntos legales relacionados con ellos hasta el momento, ya que habría motivos
para presumir consecuencias perjudiciales significativas para los intereses y
derechos de los seres humanos, las comunidades y la sociedad sin la intervención
del Estado.

6.4.2 Changes aimed at the public sector


“[…]
Implementation of automated solutions in legal proceedings requires a more in-
depth analysis but considering that preparing automated regulations in expedited
processing of payment orders has been allowed by law since 2014, expansion of the
use of similar solutions should not be ruled out.
[…]
In public law relationships, the state is liable for damage caused by unlawful and,
in some cases, also lawful actions on the conditions and to the extent provided in
the State Liability Act. For the sake of legal clarity, it should be ensured that when
exercising public powers or performing other public tasks, the actions of a kratt used
by a responsible authority or body for this purpose will be attributed to the authority
or body that used the kratt in the meaning of state liability. The state cannot escape
liability by referring to a mistake by the kratt’s creator, error in data that formed the

CEPC Inteligencia artificial y administración de justicia 58


basis for the kratt’s functions, etc. If the state had not applied sufficient measures to
ensure that the kratt is functioning as required before putting the kratt into use and
during its use, the damage caused as a result of the kratt’s actions will be equated to
a situation where the public authority causes damage wrongfully.
The state is liable for damage caused in private relationships pursuant to the
principles of civil law”.

> TRADUCCIÓN

6.4.2 Cambios dirigidos al sector público


[…]
La aplicación de soluciones automatizadas en los procedimientos judiciales requiere
un análisis más profundo, pero teniendo en cuenta que la elaboración de reglamentos
automatizados en la tramitación acelerada de órdenes de pago está permitida por ley
desde 2014, no debe descartarse la expansión del uso de soluciones similares.
[…]
En las relaciones de derecho público, el Estado es responsable de los daños causados
por actos ilícitos y, en algunos casos, también acciones lícitas en las condiciones
y con el alcance previstos en la Ley de Responsabilidad del Estado. En aras de la
claridad jurídica, debe garantizarse que cuando se ejerzan poderes públicos o
se realicen otras tareas públicas, las actuaciones de un «kratt» utilizado por una
autoridad o responsable se atribuyan a la autoridad u organismo que utilizó el
«kratt» en el sentido de la responsabilidad del Estado. El Estado no puede eludir su
responsabilidad aludiendo a un error del creador del «kratt», a un error en los datos
en los que se basan las funciones del «kratt», etc. Si el Estado no hubiera aplicado
medidas suficientes para garantizar que el «kratt» funciona como es debido antes de
ponerlo en uso y durante su utilización, los daños causados como consecuencia de la
actuación del mismo serán equiparados a una situación en la que la autoridad pública
causa daños indebidamente.
El Estado es responsable de los daños causados en las relaciones en virtud de los
principios del Derecho civil.

CEPC Inteligencia artificial y administración de justicia 59


Fuentes: Francia
Légifrance En Francia, la normativa sobre Inteligencia Artificial se centra en la protección
Ministerio de Justicia francés de datos y la aplicación de las leyes existentes. La CNIL (Comisión Nacional
Campus France de Informática y Libertades) es la encargada de investigar y realizar acciones
de aplicación en relación con la IA, basándose en las leyes de protección de
Commission Nationale
de l’Informatique et
datos. Además, existe una Estrategia Nacional de IA con el objetivo de posicionar
des Libertés (CNIL) a Francia como líder global en IA y promover la investigación y desarrollo, la
implementación ética y la formación de talento.
Corte de Casación francesa
Actualmente no existe un régimen regulatorio específico para la IA en la
legislación francesa, por lo que la aplicación de la ley se basa en las leyes de
protección de datos. Se alinea con las directrices europeas y busca integrarse en
el marco regulador de la Unión Europea para la IA.
Asimismo ha adoptado una Estrategia Nacional de IA con el objetivo de fortalecer
las capacidades de IA del país.

Legislación

Délibération n° 2024-011 du 18 janvier 2024 portant adoption d’une


recommandation sur l’application du règlement général sur la protection
des données au développement des systèmes d’intelligence artificielle.
(Deliberación nº 2024-011 de 18 de enero de 2024 por la que se adopta una
recomendación sobre la aplicación del Reglamento general de protección de
datos al desarrollo de sistemas de inteligencia artificial).
Enlace a la disposición

La Commission nationale de l’informatique et des libertés,


Vu le règlement (UE) 2016/679 du parlement européen et du Conseil du 27 avril 2016
relatif à la protection des personnes physiques à l’égard du traitement des données à
caractère personnel et à la libre circulation de ces données, et abrogeant la directive
95/46/CE (règlement général sur la protection des données) ;
Vu la loi n° 78-17 du 6 janvier 1978 modifiée relative à l’informatique, aux fichiers et
aux libertés, notamment son article 8-I-2°-b);
Après avoir entendu le rapport M. Claude Castelluccia, commissaire, et les
observations de M. Damien Milic, commissaire du Gouvernement
Formule les observations suivantes:
• De nombreux acteurs ont fait part, à la Commission nationale de l’informatique et
des libertés (CNIL), de questionnements concernant l’application du règlement
général sur la protection des données (RGPD) à l’intelligence artificielle (IA), en
particulier depuis l’émergence de systèmes d’IA génératives.
• La CNIL adopte une première recommandation sur l’application du RGPD au
développement des systèmes d’intelligence artificielle.
• Cette première recommandation est composée de plusieurs fiches pratiques :
- Quel est le périmètre des fiches pratiques sur l’IA ?
- Déterminer le régime juridique applicable
- Définir une finalité
- Déterminer la qualification juridique des acteurs
- Assurer que le traitement est licite – Définir une base légale (1/2)
- Assurer que le traitement est licite – En cas de réutilisation des données,
effectuer les tests et vérifications nécessaires (2/2)
- Réaliser une analyse d’impact si nécessaire

CEPC Inteligencia artificial y administración de justicia 60


- Tenir compte de la protection des données dès les choix de conception du
système
- Tenir compte de la protection des données dans la collecte et la gestion des
données
- Modèle de documentation : fiche descriptive du jeu de données
- Elle sera complétée ultérieurement sur d’autres thèmes, après consultation
publique.
[…] Vous pouvez consulter l’intégralité du texte avec ses images à l’adresse suivante:
https://www.cnil.fr/fr/les-fiches-pratiques-ia

> TRADUCCIÓN

La Autoridad Francesa de Protección de Datos (Commission nationale de


l’informatique et des libertés),
Visto el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de
abril de 2016, relativo a la protección de las personas físicas en lo que respecta al
tratamiento de datos personales y a la libre circulación de estos datos y por el que se
deroga la Directiva 95/46/CE (Reglamento general de protección de datos) ;
Vista la Ley nº 78-17, de 6 de enero de 1978, modificada, relativa a la informática, a los
ficheros y a las libertades y, en particular, su artículo 8-I-2°-b);
Visto el informe del Sr. Claude Castelluccia, Comisario, y las observaciones del Sr.
Damien Milic, Comisario del Gobierno
Hace las siguientes observaciones:
• Muchas partes interesadas han planteado preguntas a la «Commission nationale
de l’informatique et des libertés» (CNIL) sobre la aplicación del Reglamento
General de Protección de Datos (RGPD) a la inteligencia artificial (IA), en
particular desde la aparición de sistemas de IA generativa.
• La CNIL adopta una primera recomendación sobre la aplicación del RGPD al
desarrollo de sistemas de inteligencia artificial.
• Esta primera recomendación se compone de varias fichas prácticas:
- ¿Cuál es el ámbito de aplicación de las fichas prácticas sobre IA?
- Determinación del régimen jurídico aplicable
- Definir un objetivo
- Determinar el estatuto jurídico de las partes implicadas
- Garantizar la licitud del tratamiento - Definir una base jurídica (1/2)
- Garantizar la licitud del tratamiento - Si los datos van a reutilizarse, realizar
las pruebas y comprobaciones necesarias (2/2)
- Realizar un análisis de impacto si es necesario
- Tener en cuenta la protección de datos desde la fase de diseño del sistema
- Tener en cuenta la protección de datos en la recogida y gestión de datos
- Modelo de documentación: ficha descriptiva del conjunto de datos
- Se completará posteriormente sobre otros temas, previa consulta pública.
[…]
Puede consultar el texto completo con imágenes en la siguiente dirección https://
www.cnil.fr/fr/les-fiches-pratiques-ia

Loi n° 2023-1059 du 20 novembre 2023 d’orientation et de programmation


du ministère de la justice 2023-2027 (rectificatif)
(Ley nº 2023-1059 de 20 de noviembre de 2023 sobre la orientación y
programación del Ministerio de Justicia 2023-2027 (corrección de errores)).
Enlace a la disposición

CEPC Inteligencia artificial y administración de justicia 61


Article 2.2. Une transformation numérique accélérée
[...] Le développement de systèmes d’intelligence artificielle dans le monde judiciaire
s’accompagne d’une réflexion sur les limites, les risques et les opportunités que
présentent ces systèmes. [...] Les systèmes d’intelligence artificielle ne doivent pas
empiéter sur le pouvoir de décision du magistrat. 2.2.1. [...]

> TRADUCCIÓN

Artículo 2.2. Transformación digital acelerada


[...] El desarrollo de sistemas de inteligencia artificial en el mundo judicial debe
ir acompañado de una reflexión sobre los límites, riesgos y oportunidades que
presentan estos sistemas. [Los sistemas de inteligencia artificial no deben invadir el
poder de decisión de los jueces. 2.2.1. [...]

2.2.1. Un plan numérique de soutien immédiat aux juridictions


La première mesure vise le déploiement de techniciens informatiques de proximité
(TIP) en juridiction. Il s’agit de déployer 100 techniciens informatiques dans les
tribunaux dès 2023, en attendant une seconde vague de recrutement en 2024, afin
d’offrir à toutes les juridictions un point d’entrée unique pour le traitement des
incidents numériques en juridiction et de professionnaliser la chaîne de soutien de
premier niveau, en lien direct avec le réseau déconcentré du secrétariat général.
Le service du numérique améliorera, en deuxième lieu, en 2023, la normalisation
des équipements des réseaux en juridiction et débutera la connexion au réseau
interministériel de l’Etat (RIE 2), afin de stabiliser les accès au réseau en juridiction et
d’augmenter substantiellement les débits.
La troisième mesure a pour objet la mise à niveau du parc informatique en juridiction.
Cette action programmée sur 2023 permettra d’établir un schéma type des
équipements nécessaires en juridiction (ultraportables, doubles écrans, smartphones,
visioconférences, copieurs, scanners…), de remettre à niveau la dotation des sites
sous-équipés et d’en définir la fréquence de renouvellement.
La quatrième mesure concerne la mise en place d’audits à 360 degrés dans les
juridictions en crise. Le service du numérique a élaboré une méthode de soutien
exceptionnel aux sites judiciaires connaissant une répétition d’incidents numériques.
Ces opérations coordonnées impliqueront les services déconcentrés du secrétariat
général et des services judiciaires et permettront durant plusieurs semaines un
audit numérique de l’ensemble d’une juridiction. Les premiers audits à 360 degrés se
dérouleront dans les tribunaux judiciaires de Bordeaux et de Bobigny.

> TRADUCCIÓN

2.2.1. Un plan de apoyo digital inmediato para los tribunales


La primera medida consiste en el despliegue de técnicos informáticos locales (TIP)
en los tribunales. El objetivo es desplegar 100 técnicos informáticos en los tribunales
a partir de 2023, a la espera de una segunda oleada de contrataciones en 2024, con
el fin de dotar a todos los tribunales de una ventanilla única para la gestión de las
incidencias digitales en los tribunales y profesionalizar la cadena de soporte de
primer nivel, en relación directa con la red descentralizada de la Secretaría General.
En segundo lugar, en 2023, el servicio digital mejorará la normalización de los equipos
de red en los tribunales y comenzará a conectarse a la red interministerial del Estado
(RIE 2), con el fin de estabilizar el acceso a la red en los tribunales y aumentar
sustancialmente el ancho de banda.
La tercera medida consiste en modernizar los equipos informáticos de los tribunales.
Esta acción, prevista para 2023, permitirá elaborar un esquema normalizado de los
equipos necesarios en los tribunales (ultraportátiles, doble pantalla, smartphones,
videoconferencia, fotocopiadoras, escáneres, etc.), modernizar los equipos de los
lugares insuficientemente equipados y definir la frecuencia de renovación.

CEPC Inteligencia artificial y administración de justicia 62


La cuarta medida se refiere a la introducción de auditorías de 360 grados en las
jurisdicciones en crisis. El Departamento Digital ha desarrollado un método de apoyo
excepcional a las sedes judiciales que sufren incidentes digitales repetidos. Estas
operaciones coordinadas implicarán a los servicios descentralizados de la Secretaría
General y a los servicios judiciales, y permitirán realizar una auditoría digital de todo
un tribunal durante varias semanas. Las primeras auditorías de 360 grados tendrán
lugar en los tribunales de Burdeos y Bobigny.

Décret n° 2020-356 du 27 mars 2020 portant création d’un traitement


automatisé de données à caractère personnel dénommé « DataJust »
(Decreto nº 2020-356, de 27 de marzo de 2020, por el que se crea un sistema
de tratamiento automatizado de datos de carácter personal denominado
«DataJust»).
Enlace a la disposición

Article 1
Le garde des sceaux, ministre de la justice, est autorisé à mettre en œuvre, pour
une durée de deux ans, un traitement automatisé de données à caractère personnel,
dénommé « DataJust », ayant pour finalité le développement d’un algorithme devant
servir à :
1° La réalisation d’évaluations rétrospectives et prospectives des politiques publiques
en matière de responsabilité civile ou administrative ;
2° L’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels ;
3° L’information des parties et l’aide à l’évaluation du montant de l’indemnisation à
laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des
litiges;
4° L’information ou la documentation des juges appelés à statuer sur des demandes
d’indemnisation des préjudices corporels.
A ces fins, l’algorithme recense les montants demandés et offerts par les parties, les
évaluations proposées dans le cadre de procédures de règlement amiable des litiges
et les montants alloués aux victimes pour chaque type de préjudice dont la teneur
est détaillée au 3° de l’article 2, ainsi que les données et informations mentionnées à
cet article.

> TRADUCCIÓN

Artículo 1
Se autoriza al Ministro de Justicia a implantar, durante un período de dos años, un
tratamiento automatizado de datos de carácter personal, denominado «DataJust»,
cuya finalidad es desarrollar un algoritmo que se utilizará para:
1° Realizar evaluaciones retrospectivas y prospectivas de las políticas públicas en
materia de responsabilidad civil o administrativa;
2° Elaborar un baremo indicativo de las indemnizaciones por daños corporales;
3° Informar a las partes y ayudar a evaluar el importe de las indemnizaciones a las
que tienen derecho las víctimas con el fin de favorecer la resolución amistosa de los
litigios;
4° Informar o documentar a los jueces llamados a pronunciarse sobre las demandas
por daños corporales.
A estos efectos, el algoritmo registra las cantidades solicitadas y ofrecidas por las
partes, las valoraciones propuestas en el marco de los procedimientos de resolución
extrajudicial de litigios y las cantidades concedidas a las víctimas por cada tipo
de siniestro detallado en el 3° del artículo 2, así como los datos e informaciones
mencionados en este artículo.

CEPC Inteligencia artificial y administración de justicia 63


Article 2
Les catégories de données à caractère personnel et informations enregistrées dans le
traitement prévu à l’article 1er sont extraites des décisions de justice rendues en appel
entre le 1er janvier 2017 et le 31 décembre 2019 par les juridictions administratives et
les formations civiles des juridictions judiciaires dans les seuls contentieux portant
sur l’indemnisation des préjudices corporels.
Elles peuvent comporter des données mentionnées à l’article 6 de la loi du 6 janvier
1978 susvisée et sont constituées par :
1° Les noms et prénoms des personnes physiques mentionnées dans les décisions
de justice, à l’exception de ceux des parties. Il est interdit de sélectionner dans le
traitement une catégorie particulière de personnes à partir de ces seules données ;
2° Les éléments d’identification des personnes physiques suivants : la date de
naissance, le genre, le lien de parenté avec les victimes et le lieu de résidence ;
3° Les données et informations relatives aux préjudices subis, notamment;
• la nature et l’ampleur des atteintes à l’intégrité, à la dignité et à l’intimité
subies, en particulier la description et la localisation des lésions, les durées
d’hospitalisation, les préjudices d’agrément, esthétique, d’établissement,
d’impréparation ou sexuel, les souffrances physiques et morales endurées, le
déficit fonctionnel, ainsi que le préjudice d’accompagnement et d’affection des
proches de la victime directe ;
• les différents types de dépenses de santé (notamment frais médicaux,
paramédicaux, pharmaceutiques et d’hospitalisation) et d’aménagement
(notamment frais de logement, d’équipement et de véhicule adaptés) ;
• le coût et la durée d’intervention des personnes amenées à remplacer ou
suppléer les victimes dans leurs activités professionnelles ou parentales durant
leur période d’incapacité ;
• les types et l’ampleur des besoins de la victime en assistance par tierce personne;
• les préjudices scolaires, universitaires ou de formation subis par la victime
directe ;
• l’état antérieur de la victime, ses prédispositions pathologiques et autres
antécédents médicaux ;
4° Les données relatives à la vie professionnelle et à la situation financière, notamment
la profession, le statut, les perspectives d’évolution et droits à la retraite, le montant
des gains et pertes de gains professionnels des victimes, ainsi que des responsables
ou personnes tenues à réparation ;
5° Les avis des médecins et experts ayant examiné la victime et le montant de leurs
honoraires;
6° Les données relatives à des infractions et condamnations pénales ;
7° Les données relatives à des fautes civiles;
8° Le numéro des décisions de justice.
Ces données sont transmises par le Conseil d’Etat et la Cour de cassation au service
chargé des développements informatiques du secrétariat général du ministère de
la justice. Elles sont extraites des bases de données tenues, d’une part, par la Cour
de cassation en application du deuxième alinéa de l’article R. 433-3 du code de
l’organisation judiciaire et, d’autre part, par le Conseil d’Etat.
Les noms et prénoms des personnes physiques parties aux instances concernées
sont occultés préalablement à leur transmission au secrétariat général du ministère
de la justice.

> TRADUCCIÓN

Artículo 2.
Las categorías de datos personales y la información registrada en el tratamiento
previsto en el artículo 1 se extraen de las resoluciones judiciales dictadas en
apelación entre el 1 de enero de 2017 y el 31 de diciembre de 2019 por los tribunales
administrativos y las salas civiles de los tribunales judiciales en litigios relacionados

CEPC Inteligencia artificial y administración de justicia 64


únicamente con la indemnización por daños corporales.
Pueden incluir los datos contemplados en el artículo 6 de la citada Ley de 6 de enero
de 1978 y consisten en:
1° Los apellidos y nombres de las personas físicas mencionadas en las resoluciones
judiciales, con excepción de los de las partes. Está prohibido seleccionar una categoría
particular de personas para su tratamiento basándose únicamente en estos datos;
2° Los siguientes datos de identificación de las personas físicas: fecha de nacimiento,
sexo, relación con las víctimas y lugar de residencia;
3° Los datos y la información relativos al perjuicio sufrido, en particular;
• la naturaleza y el alcance de los perjuicios a la integridad, la dignidad y la intimidad
sufridos, en particular la descripción y la localización de las lesiones, el tiempo
de hospitalización, los perjuicios a la amenidad, la estética, el establecimiento,
la falta de preparación o la sexualidad, los sufrimientos físicos y psíquicos
padecidos, el déficit funcional, así como los perjuicios al apoyo y al afecto de la
familia de la víctima directa;
• los diversos tipos de gastos sanitarios (en particular, los gastos médicos,
paramédicos, farmacéuticos y de hospitalización) y los gastos de alojamiento
(en particular, los gastos de alojamiento, equipamiento y vehículos adaptados);
• el coste y la duración de los servicios prestados por las personas necesarias para
sustituir o completar a las víctimas en sus actividades profesionales o parentales
durante su período de incapacidad;
• los tipos y el alcance de la necesidad de asistencia de la víctima por parte de
terceros;
• las pérdidas educativas, universitarias o de formación sufridas por la víctima
directa
• el estado previo de la víctima, sus predisposiciones patológicas y otros
antecedentes médicos;
4° Los datos relativos a la vida profesional y a la situación financiera de la víctima,
en particular la profesión, el estatuto, las perspectivas de carrera y los derechos de
pensión, el importe de los ingresos y del lucro cesante de las víctimas, así como las
personas responsables o indemnizables;
5° Los dictámenes de los médicos y peritos que hayan examinado a la víctima y el
importe de sus honorarios;
6° Los datos relativos a infracciones penales y condenas;
7° Los datos relativos a los delitos civiles;
8° El número de resoluciones judiciales.
Estos datos son transmitidos por el Conseil d’Etat y la Cour de cassation al servicio
encargado de los desarrollos informáticos de la Secretaría General del Ministerio de
Justicia. Se extraen de las bases de datos mantenidas, por una parte, por el Tribunal
de casación en aplicación del segundo párrafo del artículo R. 433-3 del Código de
organización judicial y, por otra, por el Conseil d’Etat.
Los apellidos y nombres de las personas físicas implicadas en los procedimientos en
cuestión se tachan antes de su envío a la Secretaría General del Ministerio de Justicia.

Article 3
Seuls ont accès, à raison de leurs attributions et dans la limite du besoin d’en
connaître, aux données à caractère personnel et informations enregistrées dans le
présent traitement :
1° Les agents du ministère de la justice affectés au service chargé des développements
informatiques du secrétariat général du ministère de la justice, individuellement
désignés par le secrétaire général ;
2° Les agents du bureau du droit des obligations individuellement désignés par le
directeur des affaires civiles et du sceau.

CEPC Inteligencia artificial y administración de justicia 65


> TRADUCCIÓN

Artículo 3
Sólo tienen acceso a los datos personales y a la información registrada en este
sistema de tratamiento de datos, en virtud de sus funciones y dentro de los límites
de su necesidad de conocer, las siguientes personas
1° Los empleados del Ministerio de Justicia adscritos al servicio de desarrollo
informático de la Secretaría General del Ministerio de Justicia, designados
individualmente por el Secretario General;
2° Agentes de la Oficina de Derecho de obligaciones designados individualmente por
el Director de Asuntos Civiles y Registro.

Article 4
Les données mentionnées à l’article 2 sont conservées pour la durée nécessaire au
développement de l’algorithme. Au terme de ce développement, elles seront effacées
de manière sécurisée.
La durée de conservation des données ne pourra en tout état de cause excéder deux
ans à compter de la publication du présent décret.

> TRADUCCIÓN

Artículo 4
Los datos mencionados en el artículo 2 se conservarán durante el tiempo necesario
para desarrollar el algoritmo. Al final de este período de desarrollo, los datos se
suprimirán de forma segura.
En cualquier caso, los datos no podrán conservarse durante más de dos años a partir
de la fecha de publicación del presente decreto.

Article 5
Les opérations de mise à jour, de suppression et de consultation font l’objet d’un
enregistrement comportant l’identification de l’utilisateur, la date, l’heure et la nature
de l’intervention dans le traitement. Ces informations sont conservées pendant une
durée de deux ans.

> TRADUCCIÓN

Artículo 5
Las operaciones de actualización, supresión y consulta se registran, incluyendo la
identificación del usuario, la fecha, la hora y la naturaleza de la intervención en el
tratamiento. Esta información se conserva durante un periodo de dos años.

Documentación complementaria

Informe sobre Corte de Casación e inteligencia artificial: preparando la


Corte del mañana (28 de abril de 2025)
Enlace al sitio

> Resumen
La Corte de Casación francesa ha publicado un informe titulado «Corte de
Casación e inteligencia artificial: preparando la Corte del mañana», presentado
el 28 de abril de 2025.

CEPC Inteligencia artificial y administración de justicia 66


El informe presenta:
• Un inventario detallado de las necesidades en materia de IA dentro de la
Corte
• Criterios de análisis basados en consideraciones éticas, jurídicas y técnicas
• Una evaluación sistemática de cada caso de uso potencial
• Una metodología general para evaluar aplicaciones de IA que podría
beneficiar a otros actores del mundo judicial
• Elementos comparativos sobre la implementación de IA en tribunales
superiores nacionales y extranjeros
• Principios rectores para el desarrollo y uso de la IA en el ámbito judicial
El informe hace hincapié en principios éticos en la elaboración y utilización
de herramientas de IA, su gobernanza y fiabilidad técnica. Concluye con la
recomendación de establecer comités internos de seguimiento, tanto operativo
como ético, para supervisar la implementación de estas tecnologías.

IA: nuestra visión para Francia. Informe sobre inteligencia artificial (2024).
Enlace al sitio

> Resumen
Este es un informe enviado al gobierno francés por la Comisión de la inteligencia
artificial. Esta Comisión reúne a actores de diversas disciplinas (cultura,
economía, tecnología, ciencia), cuya misión consiste en hacer visibles las
decisiones del Gobierno para hacer de Francia un país puntero en la revolución
de la inteligencia artificial.

Ministerio de Justicia (2020). Proyecto Datajust.


Enlace al sitio

> Resumen
Este proyecto tiene como objeto desarrollar un algoritmo encargado de extraer
y utilizar automáticamente los datos contenidos en las resoluciones judiciales
relativas a indemnizaciones por daños corporales. Más concretamente, se
trata de identificar los importes reclamados y ofrecidos por las partes en los
procedimientos, las valoraciones propuestas en el marco de los procedimientos
de solución extrajudicial y los importes concedidos a las víctimas por los
tribunales. Esta es una primera fase en la que se utiliza la inteligencia artificial.
A más largo plazo, si esta fase de desarrollo resulta satisfactoria, el Ministerio
desearía crear una herramienta permanente para poner los resultados a
disposición del público (un baremo indicativo de indemnizaciones destinado, en
particular, a informar mejor a las víctimas de daños corporales y a ayudar a los
jueces en la toma de decisiones). No obstante, esta herramienta depende de los
trabajos técnicos que se iniciarán con la publicación del decreto de 27 de marzo
de 2020.

CEPC Inteligencia artificial y administración de justicia 67


Fuentes: Italia
Senato della Repubblica
Istituto di Informatica Legislación
Giuridica e Sistemi
Giudiziari (IGSG)

Disposizioni e deleghe al Governo in materia di intelligenza artificiale.


Disegno di Legge n. 1146.
(Disposiciones y delegaciones en el Gobierno en materia de inteligencia artificial.
Proyecto de Ley. n. 1146).
Enlace al documento

> Estado: en tramitación en el Senado.


Remitido a las Comisiones Mixtas 8ª (Medio Ambiente, Transición Ecológica,
Energía, Obras Públicas, Comunicaciones, Innovación Tecnológica) y 10ª
(Asuntos Sociales, Sanidad, Trabajo Público y Privado, Seguridad Social) el 29 de
mayo de 2024. Enlace a la tramitación
El jueves 20 de marzo de 2025 la Asamblea aprobó en primera lectura el Proyecto
de ley nº 1146 sobre disposiciones y delegaciones en el Gobierno en materia de
inteligencia artificial.
En lo relativo al tema de la justicia y la autonomía de las decisiones judiciales, el
gobierno aceptó las agendas (Ordine del Giorno) G14.300, del Senador Basso (PD)
y otros y G14.301, de la Senadora Lopreiato (M5S) y otros, que se reproducen a
continuación:
Senato della Repubblica. Ordine del Giorno n. G14.300 al DDL n. 1146
Senatori: Basso, Bazoli, Irto, Fina, Zampa, Camusso, Zambito
Il Senato,
in sede di esame dell’AS 1146-A recante “disposizioni e delega al Governo in
materia di intelligenza artificiale”;
premesso che,
l’utilizzo dei sistemi e modelli di intelligenza artificiale in ambito giudiziario può
rappresentare un utile supporto per l’organizzazione e la semplificazione del lavoro,
impegna il Governo,
ad assicurare che le decisioni giudiziarie rimangano esclusivamente in capo
al giudice, evitando che le proposte o raccomandazioni generate dai sistemi di
intelligenza artificiale possano condizionarne, anche indirettamente, l’autonomia e
l’indipendenza.

> TRADUCCIÓN

Senado de la República. Orden del día nº G14.300 al DDL nº 1146


Senadores: Basso, Bazoli, Irto, Fina, Zampa, Camusso, Zambito
El Senado,
al examinar el AS 1146-A sobre «disposiciones y delegación de competencias al Gobierno
en materia de inteligencia artificial”; partiendo de la premisa de que, la utilización
de sistemas y modelos de inteligencia artificial en la judicatura puede representar
un apoyo útil para la organización y simplificación del trabajo, compromete al
Gobierno, a garantizar que las decisiones judiciales queden exclusivamente en manos
del juez, evitando que las propuestas o recomendaciones generadas por sistemas
de inteligencia artificial puedan afectar, siquiera indirectamente, a su autonomía e
independencia.

CEPC Inteligencia artificial y administración de justicia 68


Ordine del Giorno n. G14.301 al DDL n. 1146
Senatori: Lopreiato, Mazzella, Guidolin, Castellone, Di Girolamo, Nave, Sironi
Il Senato,
in sede di esame del disegno di legge recante disposizioni e delega al Governo
in materia di intelligenza artificiale (AS 1146);
Premesso che:
l’articolo 14 prevede che l’utilizzo dei sistemi di intelligenza artificiale possa
essere considerato per l’organizzazione e la semplificazione del lavoro giudiziario
nonché per la ricerca giurisprudenziale e dottrinale;
considerato che:
i sistemi di intelligenza artificiale non devono mai sostituire la valutazione e la
decisione autonoma dei magistrati ed eventuali provvedimenti adottati in base alla
IA devono rispettare le norme di rischio previste dal Regolamento (UE) 2024/1689 e
garantire altresì che ogni decisione finale sia rimessa solo al magistrato,
impegna il Governo a:
garantire che in nessun caso i sistemi di intelligenza artificiale possano sostituire
la valutazione e la decisione del magistrato e che tutti i provvedimenti adottati in
seguito a suggerimenti generati da sistemi di intelligenza artificiale debbano essere
conformi alla classificazione del rischio stabilita dal Regolamento (UE) 2024/1689.

> TRADUCCIÓN

Orden del día nº G14.301 a DDL nº 1146


Senadores: Lopreiato, Mazzella, Guidolin, Castellone, Di Girolamo, Nave, Sironi
El Senado,
al examinar el proyecto de ley que contiene disposiciones y delegación en el Gobierno
sobre inteligencia artificial (AS 1146); considerando: El artículo 14 establece que podrá
contemplarse la utilización de sistemas de inteligencia artificial para la organización
y simplificación del trabajo judicial, así como para la investigación jurisprudencial
y doctrinal; considerando que los sistemas de inteligencia artificial nunca deben
sustituir la evaluación y la toma de decisiones autónomas de los magistrados y
que cualquier medida adoptada sobre la base de la IA debe cumplir con las normas
de riesgo establecidas en el Reglamento (UE) 2024/1689 y también garantizar
que cualquier decisión final se remita únicamente al magistrado, compromete al
Gobierno a: garantizar que en ningún caso los sistemas de inteligencia artificial
puedan sustituir la evaluación y la toma de decisiones del magistrado y que cualquier
medida adoptada a raíz de las sugerencias generadas por los sistemas de inteligencia
artificial debe cumplir con la clasificación de riesgo establecida en el Reglamento
(UE) 2024/1689.

Norme per lo sviluppo e per l’adozione di tecnologie di intelligenza


artificiale.
Proyecto de Ley [n. 1066] aprobado por el Consejo de Ministros el 23 de abril de
2024. (Normas para el desarrollo y la adopción de tecnologías de inteligencia
artificial).
Enlace al documento

> Estado: en tramitación en el Senado.


En estudio en comisión. Enlace a la tramitación
[Oggetto e finalita:]
L’utilizzo dell’intelligenza artificiale nel nostro Paese si pone come opportunità chiave
per superare le attuali problematiche economiche e sociali.

CEPC Inteligencia artificial y administración de justicia 69


[…] Integrare l’intelligenza artificiale potrebbe servire a sbloccare la produttività del
sistema italiano. Attraverso l’automazione avanzata, l’ottimizzazione dei processi e la
generazione di soluzioni innovative, l’IA avrebbe una capacità inedita di amplificare
l’efficienza e la produttività all’interno delle aziende del Paese.
[…] L’intelligenza artificiale inaugura nuove prospettive ma presenta anche
rischi eticosociali. Perché l’innovazione diventi un motore di avanzamento, è
fondamentale perseguire uno sviluppo responsabile. La trasparenza nella gestione
dei dati, l’affidabilità delle tecnologie adottate, la protezione e la privacy dei sistemi,
l’imparzialità degli output e l’accessibilità a questi servizi sono elementi fondamentali
per l’attuazione di un’intelligenza artificiale etica.
[…] Per questo l’Italia dovrà seguire e implementare il prima possibile l’AI Act,
anche detta «legge sull’intelligenza artificiale », la proposta legislativa dell’Unione
europea di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale
e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE)
2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797
e (UE) 2020/1828) in modo da ridurre gli usi scorretti, garantire una maggiore privacy
e protezione dei dati e rispondere alle preoccupazioni etiche che questa tecnologia
sta sollevando. […].

> TRADUCCIÓN

[…] El uso de la inteligencia artificial en nuestro país se presenta como una oportunidad
clave para superar los actuales problemas económicos y sociales. […]
La integración de la inteligencia artificial podría servir para desbloquear la
productividad del sistema italiano. Mediante la automatización avanzada, la
optimización de procesos y la generación de soluciones innovadoras, la IA tendría
una capacidad sin precedentes para impulsar la eficiencia y la productividad de las
empresas del país. […].
[…] La inteligencia artificial abre nuevas perspectivas, pero también presenta
riesgos éticos y sociales. Para que la innovación se convierta en un avance, es crucial
perseverar en un desarrollo responsable. La transparencia en la gestión de datos, la
fiabilidad de las tecnologías adoptadas, la protección y privacidad de los sistemas, la
imparcialidad de los resultados y la accesibilidad de estos servicios son elementos
fundamentales para la implantación de una inteligencia artificial ética. […]
[…] Por ello, Italia tendrá que seguir y aplicar lo antes posible la Ley de IA, también
conocida como «ley de inteligencia artificial», la propuesta legislativa de la Unión
Europea para un reglamento que establezca normas armonizadas sobre inteligencia
artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº
167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las
Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828), con el fin de reducir el
uso indebido, garantizar una mayor privacidad y protección de datos, y abordar las
preocupaciones éticas que esta tecnología está suscitando. […]

Documentación complementaria

Ministerio de Justicia. Progetto unitario per l’innovazione degli uffici per il


proceso. (Proyecto unificado para la innovación de las Oficinas Judiciales).
Enlace al sitio

Proyecto de intervención de TASK FORCE para oficinas judiciales


Desarrollado por la Dirección General de Coordinación de Políticas de Cohesión
en colaboración con 56 universidades y 26 Distritos de Tribunales de Apelación.
El objetivo del proyecto es reforzar las actividades de modernización del sistema
judicial, tal y como prevé el Objetivo 1.4 del PON [Programa Operativo Nacional]

CEPC Inteligencia artificial y administración de justicia 70


Gobernanza y Capacidad Institucional 2014-2020: mejorar y consolidar la
eficiencia y la calidad del sistema judicial.
Consta de 6 Macroáreas. La sexta, denominada «Just Smart», es es el proyecto
«Justicia inteligente: herramientas y modelos para optimizar el trabajo de los
jueces (JUSTSMART)».
Entre las principales actividades llevadas a cabo en el proyecto se encuentra la
puesta a prueba de modelos de inteligencia artificial capaces de proporcionar
apoyo a los responsables de la toma de decisiones individuales.2
El objetivo es el desarrollo de un modelo operativo de UPP (2) en las oficinas
judiciales implicadas, que permita una acción eficaz para despejar el retraso y
gestionar los flujos.
Las actividades se orientaron al desarrollo de sistemas que, mediante big data,
machine learning, análisis de texto y extracción de características, permitan una
asignación rápida y eficaz por materias, el examen preliminar del expediente y la
redacción del proyecto de auto según modelos normalizados. Como resultado,
el magistrado puede realizar un análisis detallado del contenido del expediente,
con la posibilidad de buscar también metadatos y precedentes jurisprudenciales
de la oficina.

Consejo Nacional de Investigación. Istituto di Informatica Giuridica e


Sistemi Giudiziari. Institute of Legal Informatics and Judicial Systems
(IGSG). (Instituto de Informática Jurídica y Sistemas Judiciales).
Enlace al sitio

Creado en 2019 a partir de la fusión del Instituto de Teoría y Técnicas de


la Información Jurídica (ITTIG), con sede en Florencia, y el Instituto de
Investigación sobre Sistemas Judiciales (IRSIG), con sede en Bolonia. Depende
del Departamento de Ciencias Sociales y Humanidades, y Patrimonio Cultural,
en el Consejo Nacional de Investigación.
Las actividades del Instituto tienen por objeto:
• Analizar el impacto de la innovación tecnológica en el derecho, la ciencia
jurídica, la actividad y organización de las instituciones públicas y en la
configuración de los derechos fundamentales de la persona, con especial
atención a los procesos de producción, comunicación, difusión y estudio,
incluido el histórico, del derecho;
• Desarrollar conocimientos teóricos y aplicados sobre la organización y el
funcionamiento de la administración de justicia, con especial referencia
al diseño y el uso de las TIC, la gobernanza, la gestión eficaz y eficiente
de las oficinas y los procedimientos judiciales, las políticas públicas de
intervención reformadora;
• Aplicar metodologías y técnicas de representación del conocimiento a
los datos jurídicos con vistas a la apertura e interoperabilidad de datos y
procesos.
Los ámbitos y temas de investigación de interés para la IGSG son los siguientes:
• Informática jurídica y derecho de las tecnologías de la información
y la comunicación e inteligencia artificial; ciencias y tecnologías del
conocimiento aplicadas al ámbito jurídico […].

2 UPP, Ufficio Per il Proceso: Oficina de Procesos, estructura organizativa que opera en los
tribunales ordinarios y en los Tribunales de Apelación con el objetivo de «garantizar la duración
razonable del juicio, a través de la innovación de los modelos organizativos y garantizando un uso
más eficiente de las tecnologías de la información y la comunicación». Más información

CEPC Inteligencia artificial y administración de justicia 71


Fuentes: Portugal
Diário da República
Govtech Justiça Legislación
STJ Iris
No se ha encontrado.

Documentación complementaria

Resolução do Conselho de Ministros n.º 207/2024, de 30 de dezembro.


Aprova a Estratégia Digital Nacional e o respetivo modelo de governação.
(Resolución del Consejo de Ministros n° 207/2024, de 30 de diciembre. Aprueba
la Estrategia Digital Nacional y el respectivo modelo de gobernanza).
Enlace a la disposición

[…]
Portugal dispõe de uma janela única para se afirmar como um dos líderes europeus no
domínio da transição digital, apoiando-se em vantagens competitivas como a elevada
conectividade, a maturidade da infraestrutura digital, a formação de excelência nas
áreas STEM (Ciências, Tecnologias, Engenharias e Matemáticas) e TIC (Tecnologias
de Informação e Comunicação), a crescente inovação das empresas, a excelência dos
centros de investigação, e a capacidade de rápida adoção de tecnologias emergentes,
como a inteligência artificial, ciência de dados, web3 ou automação.
[…]
Uma das grandes oportunidades deste século é precisamente a inteligência artificial
(IA). Esta Estratégia reconhece e destaca o papel crucial que a IA desempenhará no
futuro digital de Portugal, com uma importância crescente em todos os setores da
sociedade: na Saúde onde a IA pode otimizar processos burocráticos, na Agricultura,
onde a IA pode promover uma gestão mais eficiente e sustentável dos recursos e na
Educação onde a IA pode transformar a forma como os alunos aprendem. O objetivo
é maximizar a adoção de IA e outras tecnologias emergentes, garantindo um uso
seguro, ético e orientado para o bem comum. Este é também o caminho definido pela
União Europeia, que aposta numa abordagem equilibrada, combinando a promoção
da inovação com a garantia do respeito pelos direitos fundamentais, segurança,
transparência e valores democráticos. […].

> TRADUCCIÓN

[…]
Portugal tiene una ventana única para establecerse como uno de los líderes
europeos en la transición digital, basándose en ventajas competitivas como una alta
conectividad, una infraestructura digital madura, una excelente formación en STEM
(Ciencia, Tecnología, Ingeniería y Matemáticas) y TIC (Tecnologías de la Información
y la Comunicación), una creciente innovación empresarial, excelentes centros de
investigación y la capacidad de adopción rápida de tecnologías emergentes como la
inteligencia artificial, la ciencia de datos, la web3 o la automatización.
[…]
Una de las grandes oportunidades de este siglo es precisamente la inteligencia artificial
(IA). Esta Estrategia reconoce y destaca el papel crucial que la IA desempeñará en el
futuro digital de Portugal, con una importancia creciente en todos los sectores de la
sociedad: en la Sanidad, donde la IA puede optimizar los procesos burocráticos; en
la Agricultura, donde la IA puede promover una gestión más eficiente y sostenible de
los recursos; y en la Educación, donde la IA puede transformar la forma de aprender
de los estudiantes. El objetivo es maximizar la adopción de la IA y otras tecnologías
emergentes, garantizando al mismo tiempo su uso seguro, ético y orientado al bien
común. Este es también el camino definido por la Unión Europea, que apuesta por

CEPC Inteligencia artificial y administración de justicia 72


un enfoque equilibrado, que combine el fomento de la innovación con la garantía del
respeto de los derechos fundamentales, la seguridad, la transparencia y los valores
democráticos.

Iniciativa #10 - Agenda Nacional de Inteligência Artificial


Enquadramento:
A inteligência artificial (IA) representa uma oportunidade única para impulsionar
o crescimento económico e a competitividade de Portugal. A IA tem um potencial
transformador que se estende a todos os setores de atividade e a todas as dimensões
da sociedade.
A ambição de Portugal é não apenas acompanhar esta evolução tecnológica, mas
posicionar-se na sua liderança.
Dado o desenvolvimento acelerado da IA a nível global, Portugal precisa de uma
resposta ágil e integrada para intensificar a adoção da IA e não perder terreno face
a outros países.
A adoção massificada da IA, conduzida de forma segura e ética, transforma a
economia, gera inovação e cria um ambiente favorável ao crescimento sustentável
e inclusivo.
Detalhe:
A Visão para 2030 é clara: garantir que em 2030 Portugal apresenta um ecossistema
robusto de inteligência artificial, baseado na ética e na excelência científica, que
promova o bem-estar social e potencie a produtividade e competitividade da
economia portuguesa.
A Agenda Nacional de Inteligência Artificial será apresentada no início de 2025
e marca um passo decisivo na criação de um ecossistema robusto e inovador de
inteligência artificial em Portugal. Estruturada em torno de três eixos de atuação -
Inovação, Talento e Infraestrutura - e guiada pelas quatro dimensões da Estratégia
Digital Nacional (Pessoas, Empresas, Estado e Infraestruturas), esta Agenda define
um caminho ambicioso para o desenvolvimento e aplicação responsável da IA no País.
A Agenda contemplará um conjunto de novas ações, que serão articuladas com
iniciativas e projetos já em curso na Administração Pública. Esta abordagem
agregadora e holística assegura que futuras iniciativas de IA seguirão as mesmas
orientações, promovendo sinergias de recursos que fortalecerão o impacto dos
projetos.
A Agenda não se traduz apenas num plano de ações, mas num compromisso coletivo
para que Portugal se afirme como um líder responsável e inovador no desenvolvimento
da inteligência artificial, colocando as pessoas e o progresso social no centro desta
revolução tecnológica.

> TRADUCCIÓN

[…]
Iniciativa #10 - Agenda Nacional de Inteligencia Artificial
Marco:
La inteligencia artificial (IA) representa una oportunidad única para impulsar el
crecimiento económico y la competitividad de Portugal. La IA tiene un potencial
transformador que se extiende a todos los sectores de actividad y todas las
dimensiones de la sociedad.
La ambición de Portugal no es sólo seguir esta evolución tecnológica, sino posicionarse
en su liderazgo.
Dado el acelerado desarrollo de la IA a nivel global, Portugal necesita una respuesta
ágil e integrada para intensificar la adopción de la IA y no perder terreno en relación
con otros países.

CEPC Inteligencia artificial y administración de justicia 73


La adopción masiva de la IA, realizada de forma segura y ética, transforma la economía,
genera innovación y crea un entorno favorable al crecimiento sostenible e inclusivo.
Detalle:
La Visión para 2030 es clara: garantizar que en 2030 Portugal presente un ecosistema
de inteligencia artificial robusto, basado en la ética y la excelencia científica, que
promueva el bienestar social e impulse la productividad y la competitividad de la
economía portuguesa.
La Agenda Nacional de Inteligencia Artificial se presentará a principios de 2025(3) y
marcará un paso decisivo en la creación de un ecosistema de inteligencia artificial
robusto e innovador en Portugal. Estructurada en torno a tres ejes de acción
-Innovación, Talentos e Infraestructura- y guiada por las cuatro dimensiones de
la Estrategia Digital Nacional (Personas, Empresas, Estado e Infraestructura), esta
Agenda define un camino ambicioso para el desarrollo y aplicación responsable de la
IA en el país.
La Agenda incluirá un conjunto de nuevas acciones, que estarán vinculadas a
iniciativas y proyectos ya en marcha en la Administración Pública. Este enfoque
agregativo y holístico garantiza que futuras iniciativas de IA sigan las mismas pautas,
promoviendo sinergias de recursos que fortalecerán el impacto de los proyectos.
La Agenda no se traduce simplemente en un plan de acción, sino en un compromiso
Nota:
colectivo para que Portugal se afirme como líder responsable e innovador en el
En junio de 2025 esta Agenda desarrollo de la inteligencia artificial, colocando a las personas y al progreso social
se encuentra todavía en fase en el centro de esta revolución tecnológica.
de audiencia pública y está
abierta a contribuciones.
Ministério da Justiça (2023). Estrategia Govtech Justiça.
Enlace al sitio

La estrategia Govtech se presentó el 17 de febrero de 2023 en Lisboa, ante la


Ministra de Justicia, Catarina Sarmento Castro y el secretario de Estado de
Justicia, Pedro Ferrão Tavares. Pretende agilizar y mejorar la eficiencia de
los servicios de justicia. Ha sido financiada con fondos procedentes del Plan
de Recuperación y Resiliencia (PRR), tomando forma a través de una serie de
proyectos materializados en colaboración con otros entes e instituciones tales
como centros de investigación, universidades y empresas emergentes. Estos
proyectos, de carácter innovador y para la transformación digital, incluyen tanto
los que emplean herramientas de inteligencia artificial como aquellos otros que
pretenden desarrollar competencias en el campo de la innovación.
Entre las iniciativas ya en activo y aquellas otras que se encuentran en proceso
están la Solicitud de Nacionalidad Online con validador automático de
autenticidad de documentos, la anonimización de asuntos judiciales, la Guía de
Acceso a la Justicia, y la Automatización de la Bolsa de Empresas y Nombres,
así como el concurso de ideas innovadoras Desafios Justiça, dirigido a startups,
universidades y centros de investigación.
• Solicitud de Nacionalidad Online con validador automático de
autenticidad de documentos: se ha desarrollado una herramienta que
utiliza la inteligencia artificial para validar automáticamente los documentos
utilizados en el proceso de solicitud de nacionalidad, aligerando la carga
de trabajo y aumentando la eficacia y la capacidad de respuesta frente
al aumento de nuevas solicitudes. Está promovido por el Instituto de los
Registros y del Notariado en colaboración con la empresa Alfredo AI.
• Anonimización de las decisiones judiciales: proyecto para automatizar la
eliminación de los datos personales de las resoluciones judiciales, requisito
necesario para su publicación, liberando de esta enojosa tarea al personal
de los tribunales, jueces incluidos, y favoreciendo así la publicidad de dichas
decisiones. Utiliza herramientas basadas en el aprendizaje automático
y la IA para detectar y eliminar los datos personales de las resoluciones

CEPC Inteligencia artificial y administración de justicia 74


cumpliendo con los estándares de publicación más recientes y siguiendo
políticas de datos abiertos. Ello facilita el tratamiento y análisis por parte de
los actores del ámbito jurídico, así como del mundo científico y académico.
Ha sido promovido por el Instituto de Gestión Financiera y Equipamiento
Judicial, el Consejo Superior de la Magistratura, el Consejo Superior de los
Tribunales Administrativos y Fiscales y la asociación INESC-TEC.
• Guía Práctica de la Justicia (GPJ): proyecto desarrollado en el marco del
Plan de Recuperación y Resiliencia (PRR). Su objetivo es el de proporcionar
acceso a la información sobre la justicia a ciudadanos y empresas de una
manera rápida, accesible y fácilmente comprensible. Se basa en el modelo
de lenguaje GPT 3.5 creado por OpenAI y Microsoft, y funciona como un
agregador de información con capacidad de aprendizaje continuo que
proporciona la información necesaria para responder a las preguntas del
usuario en lenguaje natural. Ha sido desarrollado por la Dirección General
de Política de Justicia en colaboración con la empresa Genesis.Studio y con
el apoyo de Microsoft.
• Automatización de la Bolsa de Empresas y Denominaciones: la Bolsa es un
listado alojado en la web de la Plataforma de Justicia que permite consultar
los nombres de sociedades y marcas por orden alfabético a fin de poder
registrar una empresa, asociación o cooperativa. El mantenimiento de esta
base de datos se realizaba de forma manual hasta septiembre de 2022,
consumiendo gran cantidad de tiempo y recursos. La automatización se ha
llevado a cabo mediante el desarrollo de algoritmos de inteligencia artificial
para crear automáticamente nombres de empresas, agilizando el proceso
e incrementando su eficiencia. Al igual que el validador automático para la
solicitud de nacionalidad en línea, ha sido promovido por el Instituto de los
Registros y del Notariado y la empresa Alfredo AI.
• Desafios Justicia: iniciativa que busca contribuir al desarrollo de soluciones
tecnológicas innovadoras para satisfacer las necesidades concretas de
los servicios de justicia y para mejorar la respuesta al ciudadano y las
empresas. Pretende impulsar el intercambio y la comunicación entre el
sector público de la justicia y el ámbito de innovación y emprendimiento
tanto a nivel nacional como internacional. Se dirige a empresas emergentes,
universidades y centros de investigación.

Supremo Tribunal de Justiça (2023). Projeto IRIS: Informação,


Racionalização, Integração e Sumarização: Aplicação de Técnicas de
Inteligência Artificial no Supremo Tribunal de Justiça.
(Proyecto IRIS: Información, racionalización, integración y síntesis: aplicación
de técnicas de inteligencia artificial en el Tribunal Supremo de Justicia).
Enlace al sitio

El Proyecto IRIS, una iniciativa del Supremo Tribunal de Justiça (Tribunal


Superior de Justicia) portugués inició su andadura en 2020 promovida por el
INESC ID (Instituto de Ingeniería Informática y de Sistemas: Investigación y
Desarrollo), con la colaboración de profesores e investigadores del Instituto
Superior Técnico de la Universidad de Lisboa y del Iscte (Instituto Universitario
de Lisboa).
IRIS consta de dos elementos: por un lado, una base de datos de sentencias
judiciales, cuyo fin es favorecer la transparencia y mejorar el acceso a las
decisiones de los jueces, y por el otro un instrumento de anonimización de las
sentencias, a disposición de los tribunales en virtud de un protocolo establecido
con el Consejo Superior de la Magistratura.

CEPC Inteligencia artificial y administración de justicia 75


La financiación del proyecto corresponde al Sistema de Apoyo a la Transformación
Digital de la Administración Pública, a través de COMPETE 2020 (Autoridad de
Gestión del Programa Operativo de Competitividad e Internacionalización),
como parte del Programa Portugal 2020, y al Fondo Social Europeo.

Resolução do Conselho de Ministros nº 129/2021, de 10 de setembro.


Aprova o procedimento de coordenação das iniciativas de Transição Digital
da Administração Pública integradas no Plano de Recuperação e Resiliência
(Resolución del Consejo de Ministros nº 129/2021, de 10 de septiembre. Aprueba
el procedimiento de coordinación de las iniciativas de Transición Digital de las
Administraciones Públicas en el marco del Plan de Recuperación y Resiliencia).
Enlace a la disposición

Além do alinhamento estratégico com os instrumentos de política a nível nacional, os


investimentos do PRR devem igualmente garantir o alinhamento com as prioridades
a nível comunitário, destacando-se o contributo dos investimentos na transição
digital da AP para as iniciativas emblemáticas na área da modernização e o imperativo
de garantir, entre outros, a acessibilidade a serviços digitais de fácil utilização
e interoperáveis e a existência de meios de identificação eletrónica seguros, bem
como o reforço das competências digitais dos trabalhadores em funções públicas,
garantindo a aceleração da transformação digital da AP e promovendo a incorporação,
sempre que possível, de metodologias de ciência de dados e inteligência artificial,
visando a disponibilização de serviços com um maior valor acrescentado e mais
personalizados.

> TRADUCCIÓN

Además de la alineación estratégica con los instrumentos políticos a nivel nacional,


las inversiones del PRR también deben garantizar la alineación con las prioridades
a nivel de la UE, destacando la contribución de las inversiones en la transición
digital de la Administración Pública a las iniciativas emblemáticas en el ámbito de
la modernización y la necesidad de garantizar, entre otras cosas, la accesibilidad a
servicios digitales fáciles de usar e interoperables y la existencia de medios seguros
de identificación electrónica, así como el refuerzo de las competencias digitales
de los trabajadores de las funciones públicas, asegurando la aceleración de la
transformación digital de la Administración Pública y promoviendo la incorporación,
siempre que sea posible, de metodologías de ciencia de datos e inteligencia artificial,
con vistas a prestar servicios de mayor valor añadido y más personalizados.

CEPC Inteligencia artificial y administración de justicia 76


Fuentes: Reino Unido
Parlamento del Reino Unido.
Iniciativas parlamentarias
Legislación
Tribunales judiciales
Gobierno de Reino Unido
Artificial Intelligence (Regulation) Bill [HL]
(Proyecto de ley sobre la regulación de la inteligencia artificial) [En tramitación].
Enlace al documento.
Consultar estado de la tramitación

Proyecto de Ley en curso sobre la regulación de la Inteligencia Artificial en el


Reino Unido. Primer borrador presentado el 22 de noviembre de 2023. Última
revisión realizada el 29 de mayo de 2024.

Documentación complementaria

Poder Judicial (2023). Artificial Intelligence (AI). Guidance for Judicial


Office Holders. 12 December 2023
(Inteligencia Artificial (IA). Orientación para los titulares de cargos judiciales).
Enlace al documento

«Esta guía es un primer paso dentro de un conjunto de acciones destinadas a


apoyar al poder judicial en sus interacciones con la IA». También señala que
«los jueces deben verificar la precisión de las respuestas de la IA antes de tomar
decisiones que alteren el curso de la vida de las personas».
El uso de la Inteligencia Artificial («IA») en la sociedad sigue aumentando, al igual
que su relevancia para el sistema de juzgados y tribunales. Todos los titulares de
cargos judiciales deben ser conscientes de los riesgos potenciales. De particular
importancia, como subraya este documento, es la necesidad de ser conscientes de
que las versiones públicas de estas herramientas son de naturaleza abierta y, por lo
tanto, no debe introducirse en ellas ninguna información privada o confidencial.
Tras consultar a todos los titulares de cargos judiciales, esta guía ha sido elaborada
por un grupo judicial interjurisdiccional para ayudar a la judicatura, sus secretarios y
demás personal de apoyo en el uso de la IA.

Gobierno de Su Majestad (2021). National AI Strategy


(Estrategia nacional sobre Inteligencia Artificial).
Enlace al documento

CEPC Inteligencia artificial y administración de justicia 77


Legislación e iniciativas en Iberoamérica

Fuentes: Argentina
Boletín Oficial de la
República Argentina
Legislación
Ministerio Público Fiscal de
la Ciudad de Buenos Aires
Congreso de la Proyecto de Ley 2573/24 de regulación de la inteligencia artificial.
Nación Argentina
Enlace al documento y estado de la tramitación

Proyecto de Ley S-1368/2024 para establecer el marco legal para la


investigacion, desarrollo, uso y regulacion de la inteligencia artificial.
Enlace al documento
Consultar estado de la tramitación

Artículo 14º
Restricciones. Se restringe el uso de sistemas de inteligencia artificial en aplicaciones
de seguridad pública, defensa, justicia penal y en otras áreas en las que puedan
producirse impactos significativos en los derechos fundamentales, siempre y cuando
se cumplan las garantías de transparencia, supervisión y responsabilidad establecidas
en esta ley.
Los sistemas de inteligencia artificial que realicen la toma de decisiones que puedan
afectar a las personas, deberán ser supervisados por profesionales capacitados y
habilitados para tal fin. […].

Proyecto de ley [para la creación del] Observatorio Federal sobre


Inteligencia Artificial [2024].
Enlace al documento
Consultar estado de la tramitación

FUNDAMENTOS:
El presente proyecto de ley tiene por finalidad la creación de un Observatorio Federal
sobre Inteligencia Artificial (O.F.I.A.), en el ámbito del Poder Ejecutivo Nacional,
estableciendo su misión en el artículo segundo «poner a disposición pública de forma
permanente y actualizada, información para el diseño, implementación y gestión de
políticas públicas tendientes a generar buenas prácticas y garantizar el desarrollo y
uso eficiente, confiable, no discriminatorio de la Inteligencia Artificial y la educación
en ella, respetuoso de los derechos fundamentales reconocidos en la Constitución
Nacional, Tratados y Convenciones vigentes».
[…] En esta línea, el ya referenciado proyecto de Reglamento del Parlamento Europeo
y el Consejo de la inteligencia artificial [Reglamento (UE) 2024/1689 del Parlamento
Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas
armonizadas en materia de inteligencia artificial […], se propone crear mecanismos
que permitan generar buenas prácticas entendiendo que «El uso de la IA, con sus
características particulares (p. ej., la opacidad, la complejidad, la dependencia
de datos, el comportamiento autónomo) puede tener repercusiones negativas
para múltiples derechos fundamentales consagrados en la Carta de los Derechos
Fundamentales de la Unión Europea («la Carta»). Busca entonces garantizar esos
derechos fundamentales y hacer frente a los riesgos, reducir al mínimo el riesgo de la
adopción de decisiones asistidas por IA erróneas o sesgadas en esferas críticas como
la educación y la formación, el empleo, servicios importantes, la aplicación de la ley
y el poder judicial. […].

CEPC Inteligencia artificial y administración de justicia 78


Resolución 149/2024, de 6 de mayo, por la que se modifica la Resolución
111/2024, de 9 de abril.
Enlace a la disposición

[Preámbulo]:
[…] CONSIDERANDO:
[…] Que la DIRECCIÓN NACIONAL DEL SISTEMA ARGENTINO DE INFORMACIÓN
JURÍDICA dependiente de la SECRETARÍA DE JUSTICIA de esta cartera, tiene por
responsabilidad primaria “Efectuar la prestación del servicio de información jurídica,
judicial y de cualquier otro tipo vinculada a la Justicia, del ámbito nacional y provincial,
destinado a profesionales y a la sociedad en general”.
Que por cuestiones operativas y de organización, resulta necesario establecer que el
“PROGRAMA NACIONAL INTEGRAL DE INTELIGENCIA ARTIFICIAL EN LA JUSTICIA”
actuará en la órbita de la referida Dirección Nacional. […].
ARTÍCULO 1º: Sustitúyese el artículo 1° de la Resolución Nº RESOL-2024-111-APN-MJ
y su modificatoria:
ARTÍCULO 1°.- Créase el “PROGRAMA NACIONAL INTEGRAL DE INTELIGENCIA
ARTIFICIAL EN LA JUSTICIA” que funcionará bajo la órbita de la UNIDAD GABINETE
DE ASESORES de este Ministerio.
por el siguiente:
“ARTÍCULO 1°.- Créase el “PROGRAMA NACIONAL INTEGRAL DE INTELIGENCIA
ARTIFICIAL EN LA JUSTICIA” que funcionará bajo la órbita de la DIRECCIÓN
NACIONAL DEL SISTEMA ARGENTINO DE INFORMACIÓN JURÍDICA dependiente de
la SECRETARÍA DE JUSTICIA del MINISTERIO DE JUSTICIA”.

Resolución 111/2024, de 9 de abril, por la que se crea el Programa Nacional


Integral de Inteligencia Artificial en la Justicia.
Enlace a la disposición

ARTÍCULO 2°: Serán objetivos generales del Programa:


a) Promover las acciones necesarias en el uso de inteligencia artificial (IA), para
mejorar las respuestas y los procedimientos administrativos y los procesos judiciales
frente al desafío que plantea la alternativa de las herramientas digitales y la necesidad
de brindar respuestas efectivas y con celeridad a la ciudadanía.
b) Propiciar la eficiencia en la implementación de la inteligencia artificial (IA),
garantizando que su uso sea en observancia de los derechos fundamentales de los
ciudadanos.
c) Ejecutar las tareas necesarias para que la sociedad, por medio de la inteligencia
artificial (IA), acceda de manera sencilla a los mecanismos de protección y tutela de
sus derechos.
d) Instaurar herramientas con inteligencia artificial (IA), que contribuyan a la
optimización de la labor de aquellos actores sociales que intervienen en los
procedimientos administrativos y en los procesos judiciales.

Disposición 2/2023. Recomendaciones para una Inteligencia Artificial


Fiable.
Enlace a la disposición

CEPC Inteligencia artificial y administración de justicia 79


Documentación complementaria

Plan Nacional de Inteligencia Artificial (2019)


Enlace al documento

PROMETEA. Proyecto de inteligencia artificial del Ministerio Público


Fiscal de la Ciudad Autónoma de Buenos Aires.
Enlace a la página

Este proyecto nace en agosto de 2017 con el fin de agilizar los procesos judiciales,
optimizando así el servicio público de justicia, aunque la puesta en marcha demostró
su aptitud para ser utilizado en cualquier organismo público. En la actualidad se
encuentra activo en diversas instituciones argentinas, no sólo en Buenos Aires sino
también en Mendoza, Chaco, Corrientes y Santa Fe.
Entre sus funcionalidades, Prometea puede predecir la solución a un caso judicial en
apenas 20 segundos, con una tasa de acierto no inferior al 90%. Coteja por sí mismo,
sin intervención humana, datos entre documentos y bases de datos. Asimismo, en
investigaciones de casos de abuso sexual de menores, segmenta informes en función
de su contenido en cuestión de segundos. También permite elaborar decretos de
determinación de los hechos, dictámenes y disposiciones, y ayuda a la confección
de despachos y sentencias. Es capaz igualmente de construir una base de datos de
forma automática partiendo de la extracción de datos de la documentación que
maneja, y puede emplearse en la confección de un pliego de bases y condiciones
particulares, incorporando también una herramienta de control de precios públicos y
privados sobre los bienes a adquirir. En cuanto al aspecto formal de los documentos,
reduce casi en su totalidad los errores de mecanografiado y permite llevar a cabo un
control exhaustivo de dichos aspectos formales. Los análisis realizados demuestran
que Prometea puede ayudar a reducir hasta en un 90% el tiempo empleado en la
realización de todas estas tareas.
La aplicación ha sido presentada en diferentes instituciones internacionales tales
como universidades (Oxford, Harvard, La Sorbona), la Organización de las Naciones
Unidas, la Organización de los Estados Americanos, la Corte Interamericana de
Derechos Humanos, el Banco Interamericano de Desarrollo, o la Organización
Mundial del Comercio, entre otras.

CEPC Inteligencia artificial y administración de justicia 80


Fuentes: Brasil
Ministério da Ciência,
Tecnologia e Inovações
Legislación
Conselho Nacional de Justiça
Supremo Tribunal
Federal (STF) Projeto de Lei 526/2025. Dispõe Sobre A Regulação Do Uso Da Inteligência
Encontro de Administração Artificial No Brasil E Dá Outras Providências
da Justiça (EnAJUS)
(Proyecto de Ley 526/2025. Dispone la Reglamentación del Uso de la Inteligencia
Artificial en Brasil y Dicta Otras Disposiciones).
Enlace al documento y estado de la tramitación

Art. 4º O desenvolvimento e a utilização de sistemas de IA de Alto Risco estão sujeitos


às seguintes obrigações:
I - Realização de avaliações de impacto prévias, que considerem os riscos à sociedade,
aos direitos fundamentais e ao meio ambiente.
II - Garantia de supervisão humana em decisões críticas, especialmente em áreas
como saúde, segurança pública e justiça. […]

> TRADUCCIÓN

Art. 4 El desarrollo y uso de sistemas de IA de alto riesgo están sujetos a las siguientes
obligaciones:
I - Realizar evaluaciones de impacto previas, que consideren los riesgos para la
sociedad, los derechos fundamentales y el medio ambiente.
II - Garantizar la supervisión humana en las decisiones críticas, especialmente en
ámbitos como la salud, la seguridad pública y la justicia. […]

Projeto de Lei 898/2025, Institui a Lei de Incentivo à Pesquisa e


Desenvolvimento da Inteligência Artificial no Brasil e dá outras
providências
(Proyecto de Ley 898/2025, Establece la Ley de Fomento a la Investigación y
Desarrollo de la Inteligencia Artificial en Brasil y dicta otras disposiciones).
Enlace al documento y estado de la tramitación

Resolução 615 de 11/03/2025, Estabelece diretrizes para o desenvolvimento,


utilização e governança de soluções desenvolvidas com recursos de
inteligência artificial no Poder Judiciário
(Resolución 615 de 11/03/2025, Establece lineamientos para el desarrollo,
utilización y gobierno de soluciones desarrolladas con recursos de inteligencia
artificial en el Poder Judicial).
Enlace a la disposición

Projeto de Lei 1465/2024. Estabelece princípios, garantias, direitos e


deveres para o desenvolvimento, a implementação e a aplicação da
inteligência artificial no Brasil, visando promover sua utilização segura,
ética e responsável
(Proyecto de Ley 1465/2024. Establece principios, garantías, derechos y deberes
para el desarrollo, implantación y aplicación de la inteligencia artificial en Brasil,
con vistas a promover su uso seguro, ético y responsable).
Enlace al documento y estado de la tramitación

CEPC Inteligencia artificial y administración de justicia 81


Projeto de Lei 2338/2023. Dispõe sobre o desenvolvimento, o fomento e o
uso ético e responsável da inteligência artificial com base na centralidade
da pessoa humana.
(Proyecto de ley 2338/2023. Prevé el desarrollo, la promoción y el uso ético
y responsable de la inteligencia artificial sobre la base de la centralidad de la
persona humana).
Enlace al documento y estado de la tramitación

Art. 14CANADÁ
Considera-se de alto risco o sistema de IA empregado para as seguintes finalidades e
contextos de usos, levando-se em conta a probabilidade e a gravidade dos impactos
adversos sobre pessoas ou grupos afetados, nos termos de regulamentação:
[…] VI. administração da justiça, no que se refere ao uso de sistemas que auxiliem
autoridades judiciárias na investigação dos fatos e na aplicação da lei quando houver
risco às liberdades individuais e ao Estado democrático de direito, excluindo-se os
sistemas que auxiliem atos e atividades administrativas. […].

> TRADUCCIÓN

Art. 14
Se considera de alto riesgo el sistema de IA utilizado para los siguientes fines y
contextos de uso, teniendo en cuenta la probabilidad y gravedad de los impactos
adversos sobre las personas o grupos afectados, en los términos de la reglamentación:
[…] VI. Administración de justicia, en lo que se refiere a la utilización de sistemas que
ayuden a las autoridades judiciales en la investigación de los hechos y la aplicación
de la ley cuando exista riesgo para las libertades individuales y el Estado democrático
de Derecho, excluyendo los sistemas que auxilien en los actos y actividades
administrativas. […].

Projeto de Lei 1153/2023. Dispõe sobre normas gerais para a pesquisa,


o desenvolvimento e a aplicação da inteligência artificial – IA, e seu uso
consciente e ético no âmbito da União, dos Estados, do Distrito Federal
e dos Municípios.
(Proyecto de Ley 1153/2023. Dispone reglas generales para la investigación,
desarrollo y aplicación de la inteligencia artificial - IA, y su uso consciente y ético
en el ámbito de la Unión, de los Estados, del Distrito Federal y de los Municipios).
Enlace al documento y estado de la tramitación

Art. 2º Fica instituído o Centro Nacional de Inteligência Artificial, vinculado ao


Ministério da Ciência, Tecnologia e Inovação, com a finalidade de promover a
pesquisa, o desenvolvimento e aplicação da inteligência artificial - IA, e para seu uso
consciente e ético no âmbito da União, dos Esta Estado Brasileiro.
Art. 3º São objetivos do Centro Nacional de Inteligência Artificial:
I - desenvolver e coordenar políticas, programas e projetos que incentivem a pesquisa
e o desenvolvimento da inteligência artificial;
II - promover a formação de recursos humanos especializados em inteligência
artificial;
III - fomentar o empreendedorismo e a inovação em inteligencia artificial;
IV - apoiar a transferência de tecnologia em inteligencia artificial;
V - contribuir para a elaboração de princípios éticos para o desenvolvimento e uso
de inteligência artificial;

CEPC Inteligencia artificial y administración de justicia 82


VI - promover ambiente de cooperação entre os entes públicos e privados, a indústria
e os centros de pesquisas para o desenvolvimento da inteligência artificial;
VII - articular e coordenar ações com instituições nacionais e internacionais de
pesquisa, ciência e tecnologia, visando remover barreiras à inovação em inteligência
artificial.

> TRADUCCIÓN

Art. 2º Queda instituido el Centro Nacional de Inteligencia Artificial, vinculado


al Ministerio de Ciencia, Tecnología e Innovación, con la finalidad de promover la
investigación, el desarrollo y la aplicación de la inteligencia artificial - IA, y para su
uso consciente y ético en el ámbito de la Unión, del Estado y del Estado brasileño.
Art. 3º Son objetivos del Centro Nacional de Inteligencia Artificial
I - desarrollar y coordinar políticas, programas y proyectos que incentiven la
investigación y el desarrollo en inteligencia artificial;
II - promover la formación de recursos humanos especializados en inteligencia
artificial;
III - fomentar el emprendimiento y la innovación en inteligencia artificial;
IV - apoyar la transferencia de tecnología en inteligencia artificial;
V - contribuir para el desarrollo de principios éticos para el desarrollo y utilización
de la inteligencia artificial;
VI - promover un ambiente de cooperación entre entidades públicas y privadas,
industria y centros de investigación para el desarrollo de la inteligencia artificial;
VII - articular y coordinar acciones con instituciones nacionales e internacionales
de investigación, ciencia y tecnología, con vistas a la eliminación de barreras a la
innovación en inteligencia artificial.

Portaria MCTI nº 4.617, de 06.04.2021. Institui a Estratégia Brasileira de


Inteligência Artificial e seus eixos temáticos.
(Ordenanza MCTI nº. 4.617, de 06.04.2021. Establece la Estrategia Brasileña de
Inteligencia Artificial y sus ejes temáticos).
Enlace a la disposición

APLICAÇÃO NO PODER PÚBLICO


No Brasil, já existem diversos casos de utilização bem-sucedida de sistemas de IA em
órgãos públicos, entre os quais destacam-se:
Na esfera federal:
[…]
• TST [Tribunal Superior do Trabalho] - “Bem-Te-Vi”: gerencia processos judiciais
com IA. Desde o começo de maio de 2019, a ferramenta permite a análise
automática da observância de prazos dos processos.
• STF [Supremo Tribunal Federal] - “Victor”: a ferramenta tem por objetivo ler
todos os Recursos Extraordinários que chegam ao STF e identificar quais estão
vinculados a determinados temas de repercussão geral.
• MPF [Ministério Público Federal] - HALBert Corpus: classifica os pareceres
dados em Habeas Corpus quanto a sua admissibilidade (conhecimento, não
conhecimento, se está prejudicado, etc) e mérito (concessão, denegação, sem
exame de mérito, etc).
Na esfera estadual:
[…]

CEPC Inteligencia artificial y administración de justicia 83


• Justiça de Pernambuco - “Elis”: o sistema foi desenvolvido por uma equipe
do Tribunal de Justiça de Pernambuco (TJPE) para acelerar a tramitação de
processos, reduzindo para 15 dias o trabalho que 11 servidores levariam mais de
um ano para concluir.
• Ministério Público do Rio de Janeiro: sistemas de IA são utilizados para agilizar
investigações e evitar a prescrição de crimes. A instituição tem 52 profissionais
dedicados à área e está desembolsando R$ 2,9 milhões em ciência de dados e IA
para coletar, armazenar e analisar grandes volumes de informações.

> TRADUCCIÓN

APLICACIÓN EN EL PODER PÚBLICO


En Brasil, ya existen varios casos de utilización con éxito de sistemas de IA en
organismos públicos, entre los que destacan los siguientes:
A nivel federal:
[…]
• TST [Tribunal Superior del Trabajo] - “Bem-Te-Vi”: gestiona procesos judiciales
con IA. Desde principios de mayo de 2019, la herramienta permite analizar
automáticamente el cumplimiento de los plazos de los casos.
• STF [Supremo Tribunal Federal] - “Victor”: la herramienta tiene como objetivo
leer todos los Recursos Extraordinarios que llegan al STF e identificar cuáles
están vinculados a determinados temas de repercusión general.
• MPF [Ministerio Público Federal] - HALBert Corpus: clasifica los dictámenes
emitidos en Habeas Corpus en función de su admisibilidad (conocido, no
conocido, prejuzgado, etc.) y mérito (concedido, denegado, sin examen de
mérito, etc.).
A nivel estatal:
[…]
• Justicia de Pernambuco - “Elis”: el sistema fue desarrollado por un equipo del
Tribunal de Justicia de Pernambuco (TJPE) para agilizar la tramitación de casos,
reduciendo a 15 días el trabajo que 11 funcionarios tardarían más de un año en
realizar.
• Ministerio Público de Río de Janeiro: se utilizan sistemas de IA para agilizar las
investigaciones y evitar que los delitos prescriban. La institución cuenta con
52 profesionales dedicados al área y está gastando 2,9 millones de reales en
ciencia de datos e IA para recopilar, almacenar y analizar grandes volúmenes de
información.

Documentación complementaria

Consejo Nacional de Justicia (2021). Justiça 4.0 (Justicia 4.0).


Enlace al documento

El Programa Justicia 4.0 es una iniciativa que pretende fomentar el uso de las
nuevas tecnologías y de la inteligencia artificial en el Poder Judicial de Brasil,
impulsando la transformación digital del mismo con el fin de hacer más accesible
la justicia para el conjunto de los ciudadanos, y ofrecer servicios más rápidos y
eficientes.
Resultado de la asociación entre el Programa de las Naciones Unidas para el
Desarrollo (PNUD) y el Consejo Nacional de Justicia (CNJ), tiene además el
respaldo de otras instancias judiciales del país como el Consejo de Justicia
Federal (CJF), el Tribunal Superior de Justicia (STJ), el Tribunal Superior del
Trabajo (TST), el Consejo Superior de la Justicia del Trabajo (CSJT) y el Tribunal
Superior Electoral (TSE).

CEPC Inteligencia artificial y administración de justicia 84


El programa se puso en marcha en 2021 y se desarrolla en 4 ejes: innovación
y tecnología, gestión de datos e información, prevención y lucha contra la
corrupción, el blanqueo de dinero y la recuperación de activos y refuerzo de las
capacidades institucionales. Se inscribe dentro de las estrategias encaminadas
a conseguir los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030, en
particular el ODS 16 (Paz, justicia e instituciones sólidas).
(Oficina para América Latina y el Caribe (RBLAC): sede de los programas
regionales del Programa de las Naciones para el Desarrollo (PNUD)).
Enlace al sitio

Evolución de la e-justicia en Brasil (p. 12 y sig.)


• De 2004 A 2013. Del proceso en papel al electrónico. […].
• De 2014 A 2020. Del proceso electrónico a la automatización. […].
• A partir de 2021. El Poder Judicial como plataforma y la inteligencia artificial
(IA) como aliada:
• Ser digital es algo más que trasladar la lógica del proceso físico al medio
electrónico. Con esta premisa, el lanzamiento del Programa Justicia 4.0 en
enero de 2021 trazó los próximos pasos de la Justicia digital:
- Ofrecer a las personas más canales de atención.
- Permitir conectar los sistemas de los tribunales en una única
plataforma.
- Compartir innovaciones y desarrollar soluciones que permitan el uso
de la automatización y la IA en los tribunales, incluido el aprendizaje
automático.
- Hacer una gestión más estratégica de los datos y la información.

Supremo Tribunal Federal (2017). Proyecto Víctor.


Enlace al sitio

El Proyecto Víctor es fruto de la colaboración entre el Supremo Tribunal Federal


(STF) y la Universidad de Brasilia (UnB). Recibe ese nombre en homenaje a Víctor
Nunes Leal, ministro de la Corte Suprema de 1960 a 1969. Puesto en marcha
a finales de 2017, fue una iniciativa pionera en la aplicación de la inteligencia
artificial para lograr una mayor rapidez y eficacia en los procedimientos. En
principio, su labor consistía en analizar los recursos de apelación presentados
en todo el país, realizando un examen preliminar en tan solo unos segundos,
e indicando aquellos que podrían clasificarse como de repercusión general
y debían ser objeto de estudio. Sin embargo, el sistema no estaba concebido
para resolver las apelaciones, labor que seguía reservada a los magistrados,
denominados «ministros» en el STF. También se pretendía que Víctor sirviera de
ayuda a éstos en la identificación de jurisprudencia.
Más información

Tribunal Superior de Justicia (2017). Proyectos Sócrates (2017) y Athos


(2019).
El proyecto Sócrates es una iniciativa desarrollada para dar respuesta a uno de
los principales retos que afrontan los tribunales: la identificación prioritaria de
posibles controversias jurídicas que puedan existir en los recursos especiales.
La herramienta analiza también la documentación procesal para simplificar la
selección, buscar precedentes e identificar casos similares. Entre las funciones
que lleva a cabo se encuentran la localización de las disposiciones legales y los

CEPC Inteligencia artificial y administración de justicia 85


paradigmas en los que se fundamenta la posible divergencia. En la actualidad se
encuentra en activo la versión 2.0.
En cuanto al Sistema Athos, trabaja automatizando el análisis de la admisibilidad
de los recursos. El objetivo que persigue esta herramienta es el de lograr
una mayor agilidad y eficiencia en la selección de los casos que pueden ser
sometidos a sentencia por el llamado sistema de los recursos repetitivos. El
recurso repetitivo, según la definición del propio STJ, «es aquel que representa
un conjunto de recursos especiales que presentan una discusión sobre tesis
coincidentes, es decir, que se basan en una misma cuestión de derecho».

Más información

CEPC Inteligencia artificial y administración de justicia 86


Fuentes: Chile
Ley Chile
Universidad de San Andrés Legislación
(Argentina). Centro de
Estudios en Tecnología
y Sociedad (CETyS)
Decreto 12 [2024]. Aprueba actualización de la «Política Nacional de
Inteligencia Artificial».
Enlace a la disposición

El presente Decreto, aprobado el 11 de abril de 2024, y publicado el 28 de enero de


2025, vino a derogar el Decreto 20 de 2021, por el que se aprobaba la Política Nacional
de Inteligencia Artificial.
Con esta nueva norma “se reafirma la visión de una tecnología al servicio de las
personas, centrada en los principios de ética, inclusión y responsabilidad, enfocando
los esfuerzos en fortalecer la gobernanza y la ética”.

Proyecto de Ley [por el que se] regula los sistemas de inteligencia


artificial, la robótica y las tecnologías conexas, en sus distintos ámbitos
de aplicación [2023].
Enlace al documento y estado de la tramitación

Documentación complementaria

Pontificia Universidad Católica de Chile (2021). Inteligencia Artificial y


Poder Judicial. Chile y sus desafíos pendientes.
Enlace al documento

CEPC Inteligencia artificial y administración de justicia 87


Fuentes: Colombia
Congreso de la República
de Colombia. Cámara
de Representantes.
Legislación
Corte Constitucional
de Colombia Proyecto de Ley de inteligencia artificial ética y sostenible para el
Fiscalía General de la Nación bienestar social [2024].
Enlace al documento y estado de la tramitación

Objeto de proyecto: El objetivo del presente proyecto es establecer un marco


regulatorio basado en principios generales que rijan la creación y utilización de la
inteligencia artificial en Colombia, garantizando su desarrollo y aplicación de manera
ética, segura, sostenible y equitativa, con un enfoque humanístico centrado en el
bienestar de los ciudadanos en todas las etapas de implementación, producción,
distribución y consumo los contenidos digitales asociados con la inteligencia
artificial. Este proyecto busca proteger los derechos de los ciudadanos, promoviendo
el bienestar social y económico, asegurando la inclusión de género, la garantía de
protección de los derechos de niños, niñas y adolescentes y la igualdad a través de
la disminución de la brecha digital, por lo que se abordará aspectos críticos como la
privacidad de los datos, la ciberseguridad, la responsabilidad ética, la sostenibilidad
ambiental, la gestión de la obsolescencia tecnológica, la igualdad de género, y el
impacto de la inteligencia artificial en la salud mental y el bienestar de las personas,
estableciendo un mínimo aceptable para la creación y utilización de inteligencia
artificial.

Nota: Ley 2213 de 2022. Por medio de la cual se establece la vigencia


En un artículo publicado
permanente del Decreto Legislativo 806 de 2020 y se adoptan medidas
en el número 68 de la para implementar las tecnologías de la información y las comunicaciones
Revista General de Derecho en las actuaciones judiciales, agilizar los procesos judiciales y flexibilizar
Administrativo en enero
de 2025, las autoras del
la atención a los usuarios del servicio de justicia y se dictan otras
mismo situan en estas dos disposiciones.
normas el marco jurídico
que autoriza la utilización de Enlace a la disposición
tecnologías y herramientas
de inteligencia artificial
en procesos judiciales en
Colombia y la garantía del Decreto 806 de 2020. Por el cual se adoptan medidas para implementar
debido proceso. (Véase: las tecnologías de la información y las comunicaciones en las actuaciones
Cárdenas, M. & Sarmiento, M.
(2025). Inteligencia artificial y
judiciales, agilizar los procesos judiciales y flexibilizar la atención a los
administración de justicia en usuarios del servicio de justicia, en el marco del Estado de Emergencia
Colombia: el caso de ChatGPT Económica, Social y Ecológica.
y audiencias virtuales en el
Metaverso en Colombia. En Enlace a la disposición
Revista General de Derecho
Administrativo, 68).
Art.1. Objeto. Este decreto tiene por objeto implementar el uso de las tecnologías de la
información y las comunicaciones en las actuaciones judiciales y agilizar el trámite de
los procesos judiciales ante la jurisdicción ordinaria en las especialidades civil, laboral,
familia, jurisdicción de lo contencioso administrativo, jurisdicción constitucional
y disciplinaria, así como, las actuaciones de las autoridades administrativas que
ejerzan funciones jurisdiccionales y en los procesos arbitrales, durante el término de
vigencia del presente decreto. Adicionalmente, este decreto pretende flexibilizar la
atención a los usuarios del servicio de justicia y contribuir a la pronta reactivación de
las actividades económicas que dependen de este.

Documentación complementaria

PretorIA. Sistema inteligente de la Corte Constitucional para apoyar la


selección de tutelas.

CEPC Inteligencia artificial y administración de justicia 88


Enlace al documento

Implementado en 2020 por la Corte Constitucional de Colombia, este sistema


está basado en la aplicación Prometea del Ministerio Público Fiscal de la Ciudad
Autónoma de Buenos Aires, ya recogido en este dossier. Su objetivo es el de
mejorar la eficiencia del proceso de identificación y de preselección de los casos
de tutela judicial de los derechos fundamentales, así como generar información
agregada sobre el comportamiento general de la jurisdicción constitucional
de los derechos fundamentales en Colombia, optimizando de esta forma las
funciones de la Corte como máximo intérprete de la Constitución.
El proceso de «selección de tutelas» es un proceso especial, que se integra en
el contexto del trámite procesal de las acciones de tutela. La acción de tutela
es una acción constitucional establecida en el artículo 86 de la Constitución
Política, y reglamentada por el Decreto Ley 2591 de 1991. Corresponde a la Corte
Constitucional revisar, en la forma que determine la ley, las decisiones judiciales
relacionadas con la acción de tutela de los derechos constitucionales (art. 241.9
de la Constitución Política).
PretorIA se enmarca en el proceso de revisión de las decisiones judiciales producto
del ejercicio de la acción de tutela. En concreto, en el proceso de selección de
aquellos expedientes de tutela que serán objeto de revisión. Su funcionamiento
consiste en tomar las sentencias de tutela de los jueces de instancia y etiquetarlas
o clasificarlas según categorías previamente fijadas por el conocimiento experto
de la Corte Constitucional. El sistema actúa proporcionando información sobre
los textos y su contexto a los agentes humanos para facilitar su labor.
Más información

Herramienta PRISMA: Perfil de Riesgo de Reincidencia para la Solicitud


de Medidas de Aseguramiento.
Enlace al documento

Medida de aseguramiento: Proc.; Col. Disposición que decreta el juez de garantías, a


petición del fiscal, cuando de los elementos materiales probatorios y evidencia física
se pueda inferir razonablemente que el imputado puede ser autor o partícipe de la
conducta delictiva que se investiga, siempre y cuando la medida de aseguramiento se
muestre necesaria para evitar que el imputado obstruya el debido ejercicio de la justicia,
el imputado constituya un peligro para la seguridad de la sociedad o de la víctima, o
resulte probable que el imputado no comparecerá al proceso o no cumplirá la sentencia.
Ley 906 de 2004, por la cual se expide el Código de Procedimiento Penal, de Colombia,
art. 307.
(Diccionario Panhispánico del Español Jurídico dpej.rae.es)
Esta herramienta emplea un modelo de aprendizaje automático supervisado
(Machine Learning) para predecir la probabilidad de reincidencia en función de las
características del procesado, del último suceso criminal y de los antecedentes de
cada individuo. Está impulsado por la Fiscalía General de la Nación. La utilización
de esta herramienta puede ayudar también a homogeneizar la información que
se emplea en las audiencias de solicitud de medidas de aseguramiento, evitando
así un tratamiento diferente de casos similares y garantizando los principios
de igualdad e imparcialidad. La privación de libertad es una de tales medidas,
aunque no es la única.

CEPC Inteligencia artificial y administración de justicia 89


Fiscalía General de la Nación. Fiscal Watson.
Esta herramienta utiliza el programa Watson desarrollado por la empresa IBM en
el campo de la inteligencia artificial y el análisis cognitivo. Fue puesto en marcha
por la Fiscalía Nacional de Colombia en 2018 y se basa en la minería de datos
para explorar diversas bases de datos, entre ellas la del SPOA (Sistema Penal Oral
Acusatorio), analizando factores como la reincidencia o las coordenadas donde
se producen los delitos, y llevando a cabo una asociación técnica de casos.
En su informe de rendición de cuentas del periodo 2016-2019, el Fiscal General
de la Nación Néstor Humberto Martínez Neira señaló que con la ayuda de la
herramienta Fiscal Watson se habían conseguido asociar más de 4.500 denuncias
en 585 casos.
Enlace al informe
Más información

CEPC Inteligencia artificial y administración de justicia 90


Fuentes: Ecuador
Asamblea Nacional de la
República de Ecuador
Legislación

Proyecto de Ley Orgánica de Regulación y Promoción de la Inteligencia


Artificial en Ecuador [2024].
Enlace al documento
Consultar estado de la tramitación

Proyecto de Ley para el Fomento y desarrollo de la Inteligencia Artificial


[2024].
Enlace al documento
Consultar estado de la tramitación

Proyecto de Ley Orgánica de Derechos Digitales [2023].


Enlace al documento
Consultar estado de la tramitación

Artículo 19. - Derechos digitales de la ciudadanía en sus relaciones con el Estado


[…] Los derechos de la ciudadanía en relación con la inteligencia artificial reconocidos
en esta Ley resultarán también de aplicación en el marco de la actuación administrativa,
en particular en los aspectos referidos al diseño y al uso de algoritmos. En todo caso,
se reconoce el derecho a:
a) Que las decisiones y actividades en el entorno digital respeten los principios
de buen gobierno y el derecho a una buena administración digital.
b) Un procedimiento de toma de decisiones con las debidas garantías.
c) Obtener una motivación comprensible en lenguaje natural de las decisiones
que se adopten en el entorno digital, con justificación de las normas jurídicas
relevantes al caso y de los criterios de aplicación de las mismas.
d) Que la adopción de decisiones discrecionales quede reservada a personas,
salvo que una norma con rango de ley permita la adopción de decisiones
automatizadas en este ámbito.
Será necesaria una evaluación de impacto, por parte del ente rector de
Telecomunicaciones y de la Sociedad de la Información, en los derechos digitales
en el diseño de los algoritmos en el caso de adopción de decisiones automatizadas o
semiautomatizadas. En todo caso, serán objeto de aprobación previa de los sistemas
algorítmicos que se vayan a usar para la toma de decisiones, con determinación de
su ámbito concreto de aplicación y estructura de funcionamiento, por parte del ente
rector de Telecomunicaciones y de la Sociedad de la Información.
Artículo 26. - Derechos ante la Inteligencia artificial. - En el desarrollo y ciclo de vida
de los sistemas de inteligencia artificial:
a) Se deberá garantizar el derecho a la no discriminación algorítmica, cualquiera
que fuera su origen, causa o naturaleza del sesgo, en relación con las decisiones
y procesos basados en algoritmos.
b) Se asegurarán la transparencia, auditabilidad, explicabilidad y trazabilidad.
c) Deberán garantizarse la accesibilidad, usabilidad y fiabilidad. Las personas
tienen derecho a no ser objeto de una decisión basada únicamente en procesos
de decisión automatizada, incluidas aquellas que empleen procedimientos

CEPC Inteligencia artificial y administración de justicia 91


de inteligencia artificial, que produzcan efectos jurídicos o les afecten
significativamente de modo similar, salvo en los supuestos previstos en las leyes.
En tales casos se reconocen los derechos a:
a) Solicitar una supervisión e intervención humana.
b) Impugnar las decisiones automatizadas o algorítmicas. Se deberá informar a
las personas sobre el uso de sistemas de inteligencia artificial que se comuniquen
con seres humanos utilizando el lenguaje natural en todas sus formas. Deberá
garantizarse en todo caso la asistencia por un ser humano a solicitud de la
persona interesada. Se prohíbe el uso de sistemas de inteligencia artificial
dirigidos a manipular o perturbar la voluntad de las personas, en cualesquiera
aspectos que afecten a los derechos fundamentales.

CEPC Inteligencia artificial y administración de justicia 92


Fuentes: Perú
Congreso de la República.
Archivo Digital de la
Legislación del Perú Legislación
Poder Judicial del Perú

Ley 32314 (2025). Ley que modifica el Código Penal, Decreto Legislativo
635, y la Ley 30096, Ley de delitos informáticos, para incluir el uso de la
inteligencia artificial en la comisión de delitos.
Enlace a la disposición

Esta ley tiene como objetivo anticiparse a los desafíos que supone la
implementación de una tecnología con un amplio proceso de desarrollo por
delante, como es la inteligencia artificial. Para ello pone el foco en su posible
utilización con fines delictivos, agravando las penas para los delitos cometidos
con ayuda de la IA en lo que respecta a la pornografía infantil, la difamación, el
fraude electrónico o la promoción de la discriminación.

Ley 31814 (2023). Ley que promueve el uso de la inteligencia artificial en


favor del desarrollo económico y social del país.
Enlace a la disposición

Artículo 2. Interés nacional


Es de interés nacional la promoción del talento digital en el aprovechamiento de
las tecnologías emergentes y nuevas tecnologías en favor del bienestar social y
económico, así como el fomento del desarrollo y uso de la inteligencia artificial para
la mejora de los servicios públicos, de la educación y los aprendizajes, la salud, la
justicia, la seguridad ciudadana, la seguridad digital, la economía, la inclusión, los
programas sociales, la seguridad y la defensa nacional, así como para toda otra
actividad económica y social a nivel nacional.

Proyecto de Ley N. 07033/2023-CR que regula el desarrollo y uso de la


inteligencia artificial en el Perú.
Enlace al documento
Consultar estado de la tramitación

Proyecto de Ley N. 05763/2023-CR, de Reforma Constitucional que


Establece el uso de la inteligencia artificial como uno de los principios de
la administración de justicia.
Enlace al documento
Consultar estado de la tramitación

Artículo 2.- Finalidad de la ley


La finalidad de la presente ley es modificar el artículo 139° de la Constitución Política
del Perú, para establecer, como uno de los principios de la administración de justicia,
el uso de la Inteligencia Artificial y acelerar los procesos judiciales.
Artículo 3.- Modificación del artículo 139° de la Constitución Política del Perú
Se modifica el artículo 139° de la Constitución Política del Perú, el cual queda
redactado de la siguiente forma:
“Artículo 139. Son principios y derechos de la función jurisdiccional:

CEPC Inteligencia artificial y administración de justicia 93


(…)
23. El uso de la Inteligencia Artificial para /a resolución de casos judiciales y para
las acciones de mero trámite.”

Proyecto de Ley N. 05814/2023-CR, de reforma constitucional que


establece el uso de la inteligencia artificial como una de las atribuciones
del Ministerio Público.
Enlace al documento
Consultar estado de la tramitación

Artículo 2.- Finalidad de la ley


La finalidad de la presente ley es modificar el artículo 159° de la Constitución Política
del Perú, para establecer como una de las atribuciones del Ministerio Público el uso
de la Inteligencia Artificial y acelerar las investigaciones fiscales.
Artículo 3.- Modificación del artículo 159° de la Constitución Política del Perú
Se modifica el artículo 159° de la Constitución Política del Perú, el cual queda
redactado de la siguiente forma:
“Artículo 159. Corresponde al Ministerio Público:
(…)
8. El uso de la Inteligencia Artificial para investigar el delito, ejercer la acción
penal y para las acciones de mero trámite.”

Proyecto de Ley N. 05959/2023-CR, que incorpora la inteligencia artificial


en el Expediente Judicial Electrónico (EJE).
Enlace al documento
Consultar estado de la tramitación

Artículo 1.- Objeto de la Ley


La presente ley tiene por objeto regular el Expediente Judicial Electrónico (EJE) en el
ámbito de la administración de justicia en el Perú, a fin de modernizar y agilizar los
procedimientos judiciales desarrollando sobre la base del software libre, garantizando
el acceso a la justicia de manera eficiente y transparente a la ciudadanía.
Artículo 2.- Principios
La implementación y gestión del Expediente Judicial Electrónico se regirá por los
siguientes principios:
1. Transparencia.- Las decisiones y procesos que involucran inteligencia artificial
en la administración de justicia deben ser transparentes y comprensibles. Las
partes involucradas deben entender cómo se llegó a una decisión.
2. Imparcialidad.- La inteligencia artificial debe aplicarse de manera imparcial,
sin sesgos basados en género, raza, religión u otras características personales.
3. Supervisión humana.- A menudo se requiere la supervisión humana para
garantizar que las decisiones tomadas por algoritmos sean justas y legales.
4. Protección de datos.- Deben implementarse medidas sólidas para garantizar
la privacidad y seguridad de los datos personales que se utilizan en el proceso
judicial.
5. Rendición de cuentas.- Las partes involucradas deben tener un medio
para impugnar las decisiones tomadas por la inteligencia artificial y exigir
responsabilidad cuando sea necesario.
6. Actualización constante.- Los algoritmos y modelos de inteligencia artificial
utilizados en la administración de justicia deben mantenerse actualizados y

CEPC Inteligencia artificial y administración de justicia 94


revisados regularmente para reflejar cambios en la ley y en la sociedad.
7. Acceso a la justicia.- La implementación de la inteligencia artificial no debe
socavar el acceso a la justicia y debe garantizar que todas las personas tengan
igualdad de oportunidades para presentar sus casos.

Documentación complementaria

Resolución Administrativa N. 000040-2021-CE-PJ. Aprobación del plan


de implementación del proyecto “Tucuy Ricuy”.
Enlace a la resolución

CONSIDERANDO:
[…]
Segundo. Que, el referido proyecto nace de la necesidad de brindar respuestas efectivas
a partir de la innovación tecnológica, para automatizar y reducir significativamente
los tiempos de atención en los casos de violencia de género, teniendo en cuenta que
según información del Sistema Integrado Judicial - SIJ desde el año 2015 hasta el año
2018 se ha registrado un crecimiento superior a mil por ciento (1148%) respecto al
ingreso de nuevas causas en materia de violencia familiar, lo que expresa la captación
de una demanda oculta que se visibiliza a partir de la entrada en vigencia de la Ley N.
30364, Ley para Prevenir, Sancionar y Erradicar la Violencia Contra las Mujeres y los
Integrantes el Grupo Familiar.
Tercero. Que, asimismo, dicho plan de implementación contiene los siguientes
objetivos: a) Desarrollar tecnología para la justicia acorde a la realidad local; b) Ampliar
las capacidades de conocimiento del juez; c) Promover una solución innovadora que
lidere el sector justicia; y d) Disminuir los tiempos de análisis y clasificación de la
información con grandes niveles de fiabilidad.
[…]
Plan para implementar el proyecto Tucuy Ricuy
2. Alcance.
[…]
Para el logro de la propuesta basado en la aplicación de Inteligencia Artificial (IA) se
requiere asentar cinco pilares, a saber:
1. Establecer alianzas estratégicas con el laboratorio de inteligencia artificial
IALAB de la Facultad de Derecho de la Universidad de Buenos Aires y universidades
peruanas para consolidar avances en el proceso de implementación de inteligencia
artificial en el sistema de justicia de nuestro país.
2. Diseñar mecanismos de financiación con el apoyo del Banco Mundial y/o
Banco Internacional de Reconstrucción y Fomento para la implementación y el
desarrollo tecnológico, considerando otros componentes centrales del gobierno
electrónico en la administración de justicia como son: el expediente electrónico
y las plataformas de interoperabilidad las cuales conforman el conjunto de
estructuras que la organización judicial gestiona en la interacción con los
usuarios del sistema judicial.
3. Impulsar un proceso de investigación para conceptualizar el contenido del
proyecto situando el conjunto de conocimientos sólidos y confiables orientados
a solucionar el problema puntual como punto de partida del fenómeno que se
abordará.
4. Sistematizar la jurisprudencia (fallos y material considerados de relevancia
académica y práctica para los funcionarios judiciales).
5. Elaborar un documento de buenas prácticas para el manejo de casos de
violencia contra las mujeres y los integrantes del grupo familiar que alerten sobre
los posibles riesgos de vulneración que pueden presentarse durante el proceso
de implementación del proyecto.

CEPC Inteligencia artificial y administración de justicia 95


ASISTENTE AMAUTA.PRO. Corte Superior de Justicia de Lima Norte.
Enlace al sitio web

Se trata de un asistente virtual que se basa en la inteligencia artificial. Ha sido


desarrollado por la Corte Superior de Justicia de Lima Norte, y su objetivo es
el de «optimizar el proceso de emisión de resoluciones judiciales en casos de
violencia contra la mujer y otros grupos vulnerables». Normalmente el tiempo
necesario para la redacción de estas resoluciones es de unas tres horas, tiempo
que el asistente reduce a unos pocos segundos. De ahí que su puesta en marcha
suponga un paso adelante muy significativo en el proceso de digitalización del
servicio de Justicia de Perú.

CEPC Inteligencia artificial y administración de justicia 96


Fuentes: Uruguay
Centro de Información
Oficial IMPO
Legislación
Agencia de Gobierno
Electrónico y Sociedad
de la Información y Ley Nº 20.212. Rendición de cuentas y balance de ejecución presupuestal.
del Conocimiento Ejercicio 2022.
Enlace al articulado

En los artículos 74 y 75 de esta norma se establece las directrices que habrán de


seguirse para la elaboración de una estrategia nacional de datos e inteligencia
artificial para el país:
Artículo 74.- Atribúyese a la Agencia para el Desarrollo del Gobierno de Gestión
Electrónica y la Sociedad de la Información y el Conocimiento (AGESIC) el cometido
de diseñar y desarrollar una estrategia nacional de datos e inteligencia artificial
basada en estándares internacionales, en los ámbitos público y privado.
[…] Los principios de la protección de datos personales incluidos en la Ley Nº 18.331,
de 11 de agosto de 2008, serán parte de la citada estrategia.
Como parte de esta estrategia nacional de inteligencia artificial, se establece un plazo
de ciento ochenta días para la presentación ante el Poder Legislativo de un informe
y recomendaciones para su regulación legal, orientada a su desarrollo ético, la
protección de los derechos humanos y, al mismo tiempo, el fomento de la innovación
tecnológica.
[…] AGESIC realizará recomendaciones específicas a entidades del sector público y
del sector privado para el desarrollo e implementación de los sistemas de inteligencia
artificial mencionados, y para la fiscalización de su cumplimiento, sin perjuicio de
las competencias propias de la URCDP [Unidad Reguladora y de Control de Datos
Personales] y de otras entidades públicas en sus respectivos ámbitos de actuación.
Artículo 75.- En el marco del diseño y desarrollo de la estrategia nacional de datos
e inteligencia artificial, la Agencia para el Desarrollo del Gobierno de Gestión
Electrónica y la Sociedad de la Información y el Conocimiento (AGESIC) deberá
identificar y proponer medidas en favor de la innovación, respetando los principios
definidos en el artículo que antecede.
En especial, se promoverá la creación de entornos controlados de prueba con el
objetivo de poner en práctica proyectos tecnológicos de innovación en ámbitos
definidos con entidades interesadas.
Para la ejecución de los proyectos referidos, deberá contarse con el informe
favorable de un comité técnico integrado en forma preceptiva por AGESIC, por la
Unidad Reguladora y de Control de Datos Personales y por representantes de todas
las entidades públicas con competencia específica en el proyecto de que se trate. El
comité podrá invitar a otras entidades del sector público, sector privado, la academia
y la sociedad civil a participar en el proceso de evaluación.
[…] Las condiciones para la ejecución del proyecto y las excepciones solicitadas serán
resueltas por resolución fundada de AGESIC, previo informe favorable del comité
técnico.
AGESIC elaborará un proyecto de reglamentación de los entornos mencionados en
este artículo que elevará al Poder Ejecutivo en un plazo de noventa días a contar de
la promulgación de la presente ley.

Documentación complementaria

Universidad Católica del Uruguay (2021). Evaluación de la preparación


para la adopción de inteligencia artificial en los sistemas judiciales de la
región. Inteligencia artificial y Poder Judicial: caso Uruguay.
Enlace al documento

CEPC Inteligencia artificial y administración de justicia 97


Agencia de Gobierno Electrónico y Sociedad de la Información y del
Conocimiento (2019). Estrategia de Inteligencia Artificial para el Gobierno
Digital.
Enlace al documento

En la actualidad, la IA tiene un potencial que permite a los gobiernos incorporar


nuevas formas de análisis y uso de la información existente, al adoptar una actitud
proactiva, con capacidad de anticiparse a las necesidades de las personas o de
prevenir problemas. Estas habilidades fortalecen el desarrollo de las políticas públicas
y consolidan un relacionamiento más cercano entre las personas y el Estado. En el
contexto del Gobierno Inteligente, la IA aparece como una tecnología propicia para
implementar servicios más eficientes e innovadores.
Sin embargo, la IA también presenta desafíos y riesgos que es necesario considerar a
la hora de desarrollar una solución basada en este tipo de tecnología. Como parte de la
Política Digital de Uruguay, la implementación de IA en la Administración Pública (AP)
requiere de principios generales que orienten la transformación digital del gobierno
y aporten un marco para utilizarla en el ámbito público. Además, es necesaria una
estrategia clara que incorpore distintas visiones y consideraciones para el desarrollo
y uso responsable de esta tecnología.
El propósito de este documento es plasmar dicha estrategia para que la Administración
Pública use la inteligencia artificial en el desarrollo de servicios públicos y en la
mejora de sus procesos internos.
***
Para más información sobre América latina puede consultarse el Repositorio
«Regulación sobre IA en América Latina y el Caribe». Enlace al sitio.

CEPC Inteligencia artificial y administración de justicia 98


Otros países

Fuentes: Canadá
Gobierno de Canadá Como se señala en el documento que acompaña La Ley de Inteligencia Artificial
Cámara de los Comunes y Datos (AIDA), Canadá es líder mundial en el campo de la inteligencia artificial.
de Canadá Alberga 20 laboratorios públicos de investigación en IA, 75 incubadoras y
aceleradoras de IA, 60 grupos de inversores en IA de todo el país y más de 850
empresas emergentes relacionadas con esta tecnología. Asimismo, Canadá
fue el primer país del mundo en crear una estrategia nacional para la IA,
publicándola en 2017, y es miembro cofundador de la Asociación Mundial sobre
IA (GPAI). El gobierno federal ha asignado un total de 568 millones de dólares
canadienses para avanzar en la investigación y la innovación en este campo.
Dichas inversiones han sido fundamentales en el desarrollo de la Estrategia
Pancanadiense de IA para posicionar a Canadá como un actor global líder en la
investigación y comercialización de la inteligencia artificial.
Este país también ha sido pionero en la puesta en marcha del primer ministerio
de inteligencia artificial del mundo: en mayo de 2025 el Primer Ministro
canadiense, Mark Carney, anunció la creación del Ministerio de Inteligencia
Artificial e Innovación Digital (Minister of Artificial Intelligence and Digital
Innovation), nombrando al experiodista Evan Solomon como titular del mismo.
Enlace al sitio web del Gobierno Digital

Legislación

Cámara de los Comunes de Canadá (2022). BILL C-27. An Act to enact


the Consumer Privacy Protection Act, the Personal Information and Data
Protection Tribunal Act and the Artificial Intelligence and Data Act and to
make consequential and related amendments to other Acts
(Ley por la que se promulgan la Ley de protección de la intimidad de los
consumidores, la Ley del Tribunal de protección de datos e información
personal y la Ley de inteligencia y datos artificiales, y por la que se introducen
las modificaciones consiguientes y conexas en otras leyes).
Enlace a la disposición

Nota:
En junio de 2022, el Gobierno de Canadá presentó la Ley de Inteligencia Artificial
y Datos (AIDA) como parte del proyecto de ley C-27, la Ley de Aplicación de la
Tal y como se señala en la
Carta Digital de 2022. La AIDA representa un hito importante en la aplicación de
introducción del texto, no
se espera que esta ley entre la Carta Digital y garantiza que los canadienses puedan confiar en las tecnologías
en vigor antes de 2025. digitales que utilizan a diario.
Documento complementario

THE PATH AHEAD


The AIDA is one of the first national regulatory frameworks for AI to be proposed.
It is designed to protect individuals and communities from the adverse impacts
associated with high impact AI systems, and to support the responsible development
and adoption of AI across the Canadian economy. It aligns with the EU’s draft AI
Act by taking a risk-based approach and would be supported by industry standards
developed over the coming years.
Following Royal Assent of Bill C-27, the Government is intending to conduct a
broad and inclusive consultation of industry, academia, civil society, and Canadian
communities to inform the implementation of AIDA and its regulations. This is
expected to include: the types of systems that should be considered as high-impact;

CEPC Inteligencia artificial y administración de justicia 99


(*) La Ley de sanciones the types of standards and certifications that should be considered in ensuring that
pecuniarias administrativas AI systems meet the expectations of Canadians; priorities in the development and
(AMPs Act, Administrative enforcement of regulations, including with regard to an AMPs scheme(*); the work
Monetary Penalties), of the AI and Data Commissioner; and the establishment of an advisory committee.
promulgada en julio de
1997, establece un sistema Following this process, the Government would pre-publish draft regulations in Part
de AMPs para la aplicación 1 of the Canada Gazette and conduct another consultation for 60 days. The initial
de determinadas leyes set of regulations would then be published in Part 2 of the Canada Gazette. ISED
agroalimentarias. Las [Innovation, Science and Economic Development Canada] would continue to assess
sanciones, similares a las the effectiveness of the regulations as it administers and enforces the Act. It would
multas impuestas por los
also work together with and support other regulators operating in the AI space in
tribunales, se imponen
mediante un procedimiento order to ensure that Canadians are protected in a consistent and effective manner
administrativo y no dan across regulatory contexts.
lugar a antecedentes penales
ni a penas de prisión.
> TRADUCCIÓN

La Ley de Inteligencia Artificial y Datos (AIDA) - Documento complementario


El camino por recorrer
La AIDA es uno de los primeros marcos normativos nacionales propuestos para la
IA. Su objetivo es proteger a las personas y las comunidades de los efectos adversos
asociados a los sistemas de IA de alto impacto y apoyar el desarrollo y la adopción
responsables de la IA en toda la economía canadiense. Se alinea con el proyecto de
Ley de IA de la UE al adoptar un enfoque basado en el riesgo y se apoyaría en normas
industriales desarrolladas en los próximos años.
Tras la sanción real del proyecto de ley C-27, el Gobierno tiene la intención de
llevar a cabo una consulta amplia e inclusiva de la industria, el mundo académico, la
sociedad civil y las comunidades canadienses para informar sobre la aplicación de la
AIDA y sus reglamentos. Se espera que esto incluya: los tipos de sistemas que deben
considerarse de alto impacto; los tipos de normas y certificaciones que deberían
tenerse en cuenta para garantizar que los sistemas de IA cumplen las expectativas
de los canadienses; las prioridades en la elaboración y aplicación de la normativa,
incluso en lo que respecta a un sistema de AMPs; el trabajo del Comisario de IA y
Datos; y la creación de un comité consultivo.
Tras este proceso, el Gobierno prepublicaría el proyecto de reglamento en la
Parte 1 de la Gaceta de Canadá y llevaría a cabo otra consulta durante 60 días. El
conjunto inicial de reglamentos se publicaría entonces en la Parte 2 de la Gaceta de
Canadá. El ISED [Innovación, Ciencia y Desarrollo Económico de Canadá] seguiría
evaluando la eficacia del reglamento a medida que administrara y aplicara la Ley.
También colaborará y apoyará a otros reguladores que operen en el ámbito de la IA
para garantizar que los canadienses estén protegidos de forma coherente y eficaz en
todos los contextos normativos.

Documentación complementaria

Gobierno de Canada (2025). AI Strategy for the Federal Public Service


2025-2027 (Estrategia de IA para la Administración Pública Federal 2025-
2027).
Enlace al sitio

Gobierno de Canada (2024). Guide on the use of generative artificial


intelligence (Guía sobre el uso de la inteligencia artificial generativa).
Enlace al sitio

CEPC Inteligencia artificial y administración de justicia 100


POLICY CONSIDERATIONS AND BEST PRACTICES
Does the Directive on Automated Decision-Making apply?
[…]
However, generative AI may not be suited for use in administrative decision-making.
The design and function of generative models can limit institutions’ ability to ensure
transparency, accountability and fairness in decisions made by these systems or
informed by their outputs. As well, the terms of use for the generative AI products
of many technology companies prohibit using their products to make high-impact
decisions. For example, OpenAI does not allow the use of their models for decisions
about health conditions, credit, employment, educational institutions, or public
assistance services; law enforcement and criminal justice; and migration and
asylum. Similarly, Google prohibits use of their generative AI services from making
“automated decisions in domains that affect material or individual rights or well-
being.” These limitations underscore the importance of complying with the directive’s
requirement to consult legal services during the design phase of an automation
project. This requirement helps make sure federal institutions understand the legal
risks of administrative uses of generative AI systems both for themselves and for
their clients.
[…]

> TRADUCCIÓN

CONSIDERACIONES POLÍTICAS Y BUENAS PRÁCTICAS


¿Se aplica la Directiva sobre la toma de decisiones automatizada?
[…]
Sin embargo, la IA generativa puede no ser adecuada para su uso en la toma de
decisiones administrativas. El diseño y el funcionamiento de los modelos generativos
pueden limitar la capacidad de las instituciones para garantizar la transparencia,
la rendición de cuentas y la equidad en las decisiones tomadas por estos sistemas
o informadas por sus resultados. Además, las condiciones de uso de los productos
de IA generativa de muchas empresas tecnológicas prohíben utilizar sus productos
para tomar decisiones de alto impacto. Por ejemplo, OpenAI no permite el uso de
sus modelos para tomar decisiones sobre condiciones de salud, crédito, empleo,
instituciones educativas o servicios de asistencia pública; aplicación de la ley y
justicia penal; y migración y asilo. Del mismo modo, Google prohíbe el uso de sus
servicios de IA generativa para tomar «decisiones automatizadas en ámbitos que
afecten a los derechos materiales o individuales o al bienestar». Estas limitaciones
subrayan la importancia de cumplir con el requisito de la directiva de consultar a
los servicios jurídicos durante la fase de diseño de un proyecto de automatización.
Este requisito contribuye a garantizar que las instituciones federales comprendan los
riesgos jurídicos de los usos administrativos de los sistemas de IA generativa, tanto
para ellas mismas como para sus clientes.

Gobierno de Canadá (2019) Directive on Automated Decision-Making


(Directiva sobre la toma de decisiones automatizada).
Enlace al sitio

The Government of Canada is increasingly looking to use artificial intelligence to make


or support administrative decisions to improve service delivery. The government is
committed to using artificial intelligence in a manner that is compatible with core
principles of administrative law such as transparency, accountability, legality, and
procedural fairness. Understanding that this technology is changing rapidly, this
directive will continue to evolve to ensure that it remains relevant.

CEPC Inteligencia artificial y administración de justicia 101


> TRADUCCIÓN

El Gobierno de Canadá recurre cada vez con mayor frecuencia a la inteligencia


artificial para tomar o respaldar decisiones administrativas que mejoren la prestación
de servicios. El Gobierno se compromete a utilizar la inteligencia artificial de forma
compatible con los principios fundamentales del derecho administrativo, como la
transparencia, la responsabilidad, la legalidad y la equidad procesal. Entendiendo que
esta tecnología está cambiando rápidamente, esta directiva seguirá evolucionando
para garantizar que siga siendo relevante.

Gobierno de Canadá (2017). Pan-Canadian Artificial Intelligence Strategy


(Estrategia Pancanadiense de Inteligencia Artificial).
Enlace al sitio

CEPC Inteligencia artificial y administración de justicia 102


Fuentes: Estados Unidos
The White House Actualmente, Estados Unidos no dispone de ninguna ley o normativa federal para
United States Congress regular el desarrollo de la inteligencia artificial. Sí existe legislación federal que
The New York State Senate hace referencia a la IA, pero siempre desde un punto de vista parcial o limitado,
como por ejemplo la Ley de Iniciativa Nacional de Inteligencia Artificial de 2020
Colorado General Assembly
(National Artificial Intelligence Initiative Act of 2020), que dispuso la creación de
State of Wisconsin. la Oficina de Iniciativa Nacional de Inteligencia Artificial como órgano encargado
Department of Corrections de supervisar e implementar la estrategia nacional de IA en el país.
La Orden ejecutiva sobre el desarrollo y uso seguros y fiables de la inteligencia
artificial, (Executive Order on the Safe, Secure, and Trustworthy Development
and Use of Artificial Intelligence), publicada por la Casa Blanca el 30 de octubre
de 2023, tiene como objetivo aprovechar todos los aspectos positivos de la
inteligencia artificial teniendo en cuenta y evitando sus riesgos potenciales.
Aunque se dirige a numerosos sectores de la sociedad, su interés se enfoca en
las agencias federales, ordenando el desarrollo de estándares a nivel federal, y
en los desarrolladores de sistemas de IA. A estos desarrolladores, y en lo que
respecta a los sistemas más potentes, les obliga a comunicar la información
crítica relativa a esos sistemas al gobierno estadounidense.
Por otra parte, el Plan para una Declaración de Derechos de la IA: hacer que los
sistemas automatizados funcionen para el pueblo estadounidense (Blueprint for
an AI Bill of Rights: making automated systems work for the american people),
publicado en octubre de 2022, identifica cinco principios que deben orientar el
diseño, uso e implementación de sistemas automatizados, a fin de garantizar la
protección de la ciudadanía, de sus derechos y oportunidades, en la era de la IA.
Otras iniciativas legislativas que se han propuesto a nivel federal en 2023
son la Ley REAL de Publicidad Política (REAL Political Advertisements Act), el
Proyecto de Ley No FAKES, para proteger la voz y la imagen de las personas
de recreaciones no autorizadas realizadas a través de la IA generativa (Nurture
Originals, Foster art, and Keep Entertainment Safe (No Fakes) Act), o la Ley de
Innovación y Responsabilidad en Investigación de IA (Artificial Intelligence
Research, Innovation, and Accountability Act of 2023).
También se han presentado numerosas iniciativas legislativas a nivel estatal,
entre las que podemos destacar la ley promulgada el 17 de mayo de 2024 por
la Asamblea General de Colorado: Protección de los consumidores frente a la
inteligencia artificial (Consumer Protections for Artificial Intelligence), considerada
la primera legislación integral sobre inteligencia artificial de Estados Unidos,
que está previsto entre en vigor en 2026. O, más recientemente, el proyecto
de ley del Senado del Estado de Nueva York S6953B, relativo a la formación y el
uso de modelos de frontera de inteligencia artificial (Senate Bill S6953B. Relates
to the training and use of artificial intelligence frontier models, [o Responsible AI
Safety and Education (RAISE) Act), que pretende regular los sistemas de IA de
mayor potencia y, por lo tanto, que presentan un mayor riesgo.
Más información

Legislación federal

The White House (2025). Executive Order 14179: Removing Barriers to


American Leadership in Artificial Intelligence
(Orden Ejecutiva 14179: Eliminación de las barreras al liderazgo estadounidense
en inteligencia artificial).
Enlace a la disposición

CEPC Inteligencia artificial y administración de justicia 103


Sec. 4. Developing an Artificial Intelligence Action Plan. (a) Within 180 days of this
order, the Assistant to the President for Science and Technology (APST), the Special
Advisor for AI and Crypto, and the Assistant to the President for National Security
Affairs (APNSA), in coordination with the Assistant to the President for Economic
Policy, the Assistant to the President for Domestic Policy, the Director of the
Office of Management and Budget (OMB Director), and the heads of such executive
departments and agencies (agencies) as the APST and APNSA deem relevant, shall
develop and submit to the President an action plan to achieve the policy set forth in
section 2 of this order.

> TRADUCCIÓN

Sec. 4. Desarrollo de un Plan de Acción sobre Inteligencia Artificial. (a) En el plazo de


180 días a partir de esta orden, el Asistente del Presidente para Ciencia y Tecnología
(APST), el Asesor Especial para IA y Criptografía, y el Asistente del Presidente para
Asuntos de Seguridad Nacional (APNSA), en coordinación con el Asistente del
Presidente para Política Económica, el Asistente del Presidente para Política Interior,
el Director de la Oficina de Gestión y Presupuesto (Director de la OMB), y los jefes de
los departamentos y agencias ejecutivas (agencias) que el APST y la APNSA consideren
pertinentes, desarrollarán y presentarán al Presidente un plan de acción para lograr
la política establecida en la sección 2 de esta orden.

The White House (2023). Executive Order on the Safe, Secure, and
Trustworthy Development and Use of Artificial Intelligence. October 30,
2023
(Orden ejecutiva sobre el desarrollo y uso seguros y fiables de la inteligencia
artificial. 30 de octubre de 2023).
Enlace a la disposición

Esta Orden fue derogada el 20 de enero de 2025 por el nuevo presidente de


los Estados Unidos, Donald J. Trump, mediante la Executive Order 14148: Initial
Rescissions of Harmful Executive Orders and Actions (Orden Ejecutiva 14148:
Rescisión Inicial de Órdenes y Acciones Ejecutivas Perjudiciales).
Enlace a la disposición

United States Congress (2020). H.R.6216: National Artificial Intelligence


Initiative Act of 2020
(Ley de Iniciativa Nacional de Inteligencia Artificial de 2020)
Enlace a la disposición

Como se ha señalado anteriormente, esta norma estableció la creación de la


Oficina de Iniciativa Nacional de Inteligencia Artificial, órgano encargado de
supervisar e implementar la estrategia nacional de IA en los Estados Unidos.

CEPC Inteligencia artificial y administración de justicia 104


Legislación estatal

Senado del Estado de Nueva York (2025). Senate Bill S6953B. Relates to the
training and use of artificial intelligence frontier models
(Proyecto de ley del Senado S6953B. Relativo a la formación y el uso de modelos
de frontera de inteligencia artificial).
Enlace al documento y estado de la tramitación

6. “Frontier model” means either of the following:


(a) an artificial intelligence model trained using greater than 10º26 computational
operations (e.g., integer or floating-point operations), the compute cost of which
exceeds one hundred million dollars; or
(b) an artificial intelligence model produced by applying knowledge distillation to
a frontier model as defined in paragraph (a) of this subdivision, provided that the
compute cost for such model produced by applying knowledge distillation exceeds
five million dollars.

> TRADUCCIÓN

6. Por «modelo de frontera» se entiende cualquiera de los siguientes:


(a) un modelo de inteligencia artificial entrenado utilizando más de 10º26 operaciones
computacionales (por ejemplo, operaciones con números enteros o con coma
flotante), cuyo coste computacional supere los cien millones de dólares; o
(b) un modelo de inteligencia artificial producido mediante la aplicación de la
destilación de conocimientos a un modelo de frontera tal como se define en el
párrafo (a) de esta subdivisión, siempre que el coste computacional de dicho modelo
producido mediante la aplicación de la destilación de conocimientos supere los cinco
millones de dólares.

7. “Critical harm” means the death or serious injury of one hundred or more people
or at least one billion dollars of damages to rights in money or property caused or
materially enabled by a large developer’s use, storage, or release of a frontier
model, through either of the following:
(a) the creation or use of a chemical, biological, radiological, or nuclear weapon; or
(b) an artificial intelligence model engaging in conduct that does both of the following:
(i) acts with no meaningful human intervention; and
(ii) would, if committed by a human, constitute a crime specified in the penal
law that requires intent, recklessness, or gross negligence, or the solicitation or
aiding and abetting of such a crime.
A harm inflicted by an intervening human actor shall not be deemed to result
from a developer’s activities unless such activities were a substantial factor in
bringing about the harm, the intervening human actor’s conduct was reasonably
foreseeable as a probable consequence of the developer’s activities, and could have
been reasonably prevented or mitigated through alternative design, or security
measures, or safety protocols.

> TRADUCCIÓN

7. «Daño crítico»: la muerte o lesión grave de cien o más personas o al menos


mil millones de dólares de daños a derechos en dinero o propiedad causados o
materialmente propiciados por el uso, almacenamiento o liberación por parte de un
gran desarrollador de un modelo de frontera, a través de cualquiera de los siguientes:
(a) la creación o el uso de un arma química, biológica, radiológica o nuclear; o
(b) un modelo de inteligencia artificial que realice las dos conductas siguientes:

CEPC Inteligencia artificial y administración de justicia 105


(i) actúa sin intervención humana significativa; y
(ii) de haber sido cometido por una persona, constituiría un delito tipificado en la
legislación penal que implique dolo, imprudencia temeraria o negligencia grave,
o la inducción o complicidad en dicho delito.
Un daño infligido por un agente humano interviniente no se considerará resultado de
las actividades de un desarrollador a menos que dichas actividades fueran un factor
sustancial en la producción del daño, la conducta del agente humano interviniente
fuera razonablemente previsible como consecuencia probable de las actividades del
desarrollador, y hubiera podido prevenirse razonablemente o mitigarse mediante un
diseño alternativo, o medidas de seguridad, o protocolos de seguridad.

Colorado General Assembly (2024). Consumer Protections for Artificial


Intelligence (Protección de los consumidores frente a la inteligencia
artificial).
Enlace a la disposición

Documentación complementaria

Tribunal Supremo de Illinois (2025). Política sobre inteligencia artificial.


Enlace al documento

Al adoptar los avances de la inteligencia artificial (IA), el Tribunal Supremo de Illinois


se mantiene firme en su compromiso de mantener los más altos estándares éticos en
la administración de justicia. Reconocemos el rápido desarrollo de la IA generativa
capaz de producir texto, imágenes, vídeo, audio y otros contenidos similares a los
humanos.
La integración de la IA con los tribunales es cada vez más generalizada, ofreciendo
una potencial eficiencia y un mejor acceso a la justicia. Sin embargo, también
suscita preocupaciones críticas sobre la autenticidad, la exactitud, la parcialidad
y la integridad de los expedientes judiciales, los procedimientos, las pruebas y las
decisiones. Comprender las capacidades y limitaciones de la tecnología de IA es
esencial para el Poder Judicial de Illinois.
[…] Las Reglas de Conducta Profesional y el Código de Conducta Judicial se aplican
plenamente al uso de las tecnologías de IA. Los abogados, jueces y litigantes auto-
representados son responsables de su trabajo final. Todos los usuarios deben revisar
minuciosamente el contenido generado por la IA antes de presentarlo en cualquier
procedimiento judicial para garantizar su exactitud y el cumplimiento de obligaciones
legales y éticas. Antes de emplear cualquier tecnología, incluidas las aplicaciones de
IA generativa, los usuarios deben conocer tanto las capacidades generales de la IA
como las herramientas específicas que se utilicen.
El Tribunal reconoce la necesidad de un uso seguro de la IA, respetando las
leyes y normativas sobre privacidad y confidencialidad. Las aplicaciones de IA no
deben comprometer información sensible, como comunicaciones confidenciales,
información de identificación personal (IIP), información sanitaria protegida (PHI),
datos sobre justicia y seguridad pública, información relacionada con la seguridad, o
información que entre en conflicto con las normas de conducta judicial o erosione la
confianza del público.
Esta política refleja el compromiso de la Corte Suprema de Illinois de mantener
los principios fundamentales, al tiempo que explora los beneficios potenciales
de las nuevas tecnologías de IA en un panorama dinámico. El Tribunal reevaluará
periódicamente las políticas a medida que evolucionen estas tecnologías, priorizando
la confianza pública en el poder judicial y la administración de justicia.
Los jueces siguen siendo los responsables últimos de sus decisiones,
independientemente de los avances tecnológicos […].

CEPC Inteligencia artificial y administración de justicia 106


The White House. (2023). National artificial intelligence research and
development strategic plan: 2023 update
(Plan estratégico nacional de investigación y desarrollo de inteligencia artificial:
actualización de 2023).
Enlace a la disposición

The White House (2022). Blueprint for an AI Bill of Rights: making


automated systems work for the american people
(Plan para una Declaración de Derechos de la IA: poner los sistemas automatizados
al servicio del pueblo estadounidense).
Enlace al documento

CEPC Inteligencia artificial y administración de justicia 107


Fuentes: China
China Laws Portal Como muchos otros países, China carece en este momento de una ley que regule
Administración del de manera general el desarrollo de la inteligencia artificial. No obstante, ya en
Ciberespacio de China 2023 se incluyó en el plan legislativo un proyecto de ley sobre la materia, que
Centro de seguridad y un año después aparece como «proyecto de revisión preliminar» en la agenda
tecnología emergente (CSET). legislativa del Consejo Estatal.
Universidad de Georgestown
Anteriormente, en 2017, dicho Consejo había presentado el Plan de Desarrollo
de la IA de Nueva Generación, con una hoja de ruta legislativa que tenía como
objetivo alcanzar los estándares mundiales de IA en 2020 y, más allá, hacer de
China un líder mundial de la inteligencia artificial en el año 2030.
En la actualidad, la regulación china de la IA se basa en un marco legislativo y
reglamentario a varios niveles, que abarca el cumplimiento de la normativa en
materia de datos, algoritmos, ciberseguridad y ética.
Es preciso señalar que la normativa en vigor sobre IA tiene algunas singularidades
que se corresponden con el sistema político vigente en el país, y que desde el
proceso de reformas puesto en marcha por Deng Xiaoping en 1979 se define
como un «socialismo con características chinas», consistente en una economía
mixta (economía de mercado, pero con predominio de la propiedad pública); y en
el liderazgo político del Partido Comunista (Oficina de Información Diplomática
del Ministerio de Asuntos Exteriores, Unión Europea y Cooperación, 2025).
Enlace al documento).
De esta forma, por ejemplo, las Medidas Provisionales para la Administración
de Servicios de Inteligencia Artificial Generativa, o medidas GAI, en vigor desde
2023, señalan que la IA Generativa está obligada a cumplir las leyes, respetar
la moral y la ética y defender los valores socialistas, de forma que deben ser
evitados los contenidos que amenacen al Estado y a la sociedad, o promuevan
ideologías nocivas e información falsa.
En lo que respecta a la administración de justicia, China ha intentado situarse a
la vanguardia de la innovación con la incorporación de la inteligencia artificial
a este ámbito. Es preciso nombrar iniciativas como el asistente virtual Xiao Zhi
3.0 o «Pequeña Sabiduría», implementado por un tribunal de Hangzhou, o la
herramienta diseñada para agilizar procesos judiciales clave, que fue puesta en
marcha en 2023 en Shenzhen, provincia de Guangdong. Esta agilización se lleva
a cabo en 4 etapas principales: presentación de casos, revisión de documentos,
audiencias judiciales y redacción de documentos, a la vez que optimiza 85 flujos
de trabajo adicionales.
Asimismo, en 2022 el Tribunal Popular Supremo publicó dos importantes
documentos sobre la regulación y la aplicación de la inteligencia artificial a la
administración de justicia: los Dictámenes del Tribunal Supremo Popular sobre la
regulación y el fortalecimiento de la aplicación judicial de la IA, y los Dictámenes
sobre la regulación y el fortalecimiento de las aplicaciones de la Inteligencia
Artificial en el ámbito judicial. Este último establece la prioridad de que los
tribunales chinos construyan un sistema de inteligencia artificial competente
para 2025, con el objetivo de apoyarse en la IA a fin de mejorar los servicios
legales y defender la justicia.
Más información

CEPC Inteligencia artificial y administración de justicia 108


Legislación

Comité Permanente de la Asamblea Popular Nacional. Plan de Trabajo


Legislativo 2024.
Enlace al texto (fuente no oficial)

(III) Elementos para revisión preliminar


[…] Estudiar leyes financieras integrales, incluido el sistema regulatorio financiero, así
como proyectos legislativos en las áreas de sistemas fiscales y tributarios, gobernanza
de redes y el desarrollo saludable de la inteligencia artificial. Las partes pertinentes
acelerarán el trabajo de investigación y redacción y organizarán la revisión según
corresponda.

Documentación complementaria

Administración del Ciberespacio de China (2024). AI Safety Governance


Framework 2024. Marco de Gobernanza de la Seguridad de la IA 2024.
Enlace al documento

Centro de seguridad y tecnología emergente (CSET). Universidad de


Georgestown (2024). Basic Safety Requirements for Generative Artificial
Intelligence Services (Requisitos básicos de seguridad para los servicios
de inteligencia artificial generativa). Comité Técnico Nacional 260 sobre
Ciberseguridad de la Administración de Normalización de China.
Enlace al texto

Administración del Ciberespacio de China (2023). Medidas provisionales


para la administración de los servicios de inteligencia artificial generativa.
Enlace al texto

Corte Suprema Popular (2022). Opinions of the Supreme People’s Court


on Regulating and Strengthening the Judicial Application of AI 2022
(Dictámenes del Tribunal Supremo Popular sobre la regulación y el
fortalecimiento de la aplicación judicial de la IA 2022).
Enlace al texto

Corte Suprema Popular (2022). Opinions on Regulating and Strengthening


the Applications of Artificial Intelligence in the Judicial Fields (Dictámenes
sobre la regulación y el fortalecimiento de las aplicaciones de la
Inteligencia Artificial en el ámbito judicial).
Enlace al texto

CEPC Inteligencia artificial y administración de justicia 109


Ministerio de Ciencia y Tecnología de la República Popular China (2021).
Ethical Norms for Next Generation Artificial Intelligence 2021 (2021 AI
Code of Ethics). (Normas Éticas para la Inteligencia Artificial de Próxima
Generación 2021 (Código de Ética de IA 2021)). Código ético para la nueva
generación de inteligencia artificial.
Enlace al texto

Ministerio de Ciencia y Tecnología de la República Popular China


(2019). Next Generation AI Governance Principle 2019 (2019 AI Principles)
(Principios de Gobernanza de la IA de Nueva Generación 2019 (Principios
de IA 2019)).
Enlace al texto

Corte Suprema Popular (2019). AI Judge (Juez de IA).


Enlace al sitio

El Tribunal de Internet de Beijing puso en marcha en junio de 2019 un centro


de servicios de litigios en línea, que incluía un juez basado en la inteligencia
artificial del que se dijo que era el primero de esa clase en el mundo.
Esta herramienta se basaba en tecnologías de sintetización inteligente del habla
y de la imagen, cuya función era la de ayudar a los magistrados del tribunal
en las tareas más comunes y repetitivas, entre ellas la recepción de los litigios,
mejorando con ello la calidad y la eficiencia de la labor judicial, y permitiéndoles
disponer de más tiempo para dedicarlo a los procesos judiciales propiamente
dichos.
Se trataba de una jueza creada mediante esta tecnología que replicaba la voz, las
expresiones faciales y el movimiento de una persona real. Entre sus posibilidades
estaba también la de brindar información a los usuarios sobre la utilización de la
plataforma de litigios en línea.

Consejo Estatal (2017). Next Generation Artificial Intelligence Development


Plan 2017 (2017 AI Plan)
(Plan de Desarrollo para la Próxima Generación de Inteligencia Artificial (Plan IA
2017)).
Enlace al texto

La ambición última de este plan era hacer de China el líder mundial en IA para
el año 2030. En él se establece la necesidad de implantar normas éticas en la
investigación, el desarrollo y la implementación de la IA, y destaca la importancia
de formular leyes, reglamentos y normas éticas para promover el desarrollo de
esta tecnología. Asimismo formula requisitos específicos, como el de reforzar
la investigación sobre cuestiones jurídicas, éticas y sociales relacionadas con
la inteligencia artificial y establecer un marco jurídico y ético que garantice el
desarrollo adecuado de la misma.

CEPC Inteligencia artificial y administración de justicia 110


3
Jurisprudencia relacionada

Los casos del TJUE que se presentan están relacionados con la protección de
datos. Los otros casos, tanto el de España como los del resto del mundo son
relativos al uso de la Inteligencia Artificial en el ámbito judicial, específicamente.

CEPC Inteligencia artificial y administración de justicia 111


Fuentes: España
CENDOJ (Centro de
Documentación del Consejo
General del Poder Judicial) Resolución (AUTO) sobre uso de herramientas de inteligencia artificial
generativa en el ámbito judicial.
Enlace a la Resolución

> Resumen
Este AUTO del Tribunal Superior de Justicia de Navarra aborda un caso en el que un
abogado utilizó información errónea proporcionada por ChatGPT en la redacción
de una querella, dónde se cita el artículo 454B del Código Penal, relativa al delito de
ocultamiento, alteración o destrucción de pruebas. El Tribunal se dio cuenta de que
este artículo del Código Penal no pertenecía al ordenamiento jurídico español, sino
al colombiano. El abogado presentó excusas al Tribunal.
El Tribunal abrió una pieza separada para determinar si existía abuso de derecho o
mala fe procesal. Finalmente, tras valorar las circunstancias, el Tribunal concluyó
que no se impondría ninguna multa: se tuvo en cuenta que el uso de la inteligencia
artificial en el ámbito jurídico es muy novedoso, y que el abogado asumió su
responsabilidad y se disculpó por el error.
El auto señala que «la revisión y validación de los documentos legales seguirá siendo
responsabilidad de los abogados para garantizar la precisión y el cumplimiento
normativo». Asimismo debe servir como advertencia sobre «las implicaciones
legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas
tecnologías».
Se establece un precedente clave en España sobre los riesgos del uso de inteligencia
artificial en el ejercicio de la abogacía: no se puede reemplazar el criterio humano.

CEPC Inteligencia artificial y administración de justicia 112


Fuentes: Tribunal de Justicia de la Unión Europea
CURIA (Base de datos
del Tribunal de Justicia
de la Unión Europea) Sentencia del Tribunal de Justicia (Gran Sala) de 5 de abril de 2022.
Otras fuentes de referencia: Enlace a la Sentencia
Diario La Ley - Aranzadi

Principio de proporcionalidad y conservación indiscriminada de datos de


comunicaciones electrónicas.
> Resumen
Este caso ha supuesto una evolución en una línea jurisprudencial del TJUE que, con
su precedente inmediato en el caso del TJUE de 6 de octubre de 2020 (caso LA
QUADRAUTE DU NET y otros), marcó la lucha contra la delincuencia organizada y
el terrorismo como ámbito propio de respeto del principio de proporcionalidad de
injerencias tecnológicas que afectaban en el ámbito de la investigación criminal a
contenidos y datos de tráfico de comunicaciones electrónicas y datos de localización
protegidos por el art. 15.1 de la Directiva 2002/58/CE. La nueva sentencia evoluciona
sobre este posicionamiento reconociendo relación directa con determinados
derechos fundamentales garantizados en la Carta de Derechos Fundamentales de la
Unión Europea (integridad personal; prohibición de la tortura y tratos inhumanos o
degradantes; libertad y seguridad, y privacidad).

Sentencia del Tribunal de Justicia (Sala Primera) de 7 de diciembre de


2023
Enlace a la Sentencia

Primera sentencia del Tribunal de Justicia de la Unión Europea sobre decisiones


automatizadas y sus implicaciones para la protección de datos y el Reglamento
de inteligencia artificial.
El Reglamento General de Protección de Datos (RGPD) se opone a dos prácticas
de tratamiento de datos por parte de agencias de información comercial:
Mientras que el scoring solo está autorizado en determinadas circunstancias,
la conservación prolongada de información relativa a la concesión de una
exoneración del pasivo insatisfecho es contraria al RGPD.
> Resumen
El caso involucra a SCHUFA, una empresa que proporciona información de solvencia
de consumidores basada en procedimientos matemáticos y estadísticos. Se hace
una clasificación de una persona según su comportamiento, lo que permite prever
un comportamiento similar. El demandante es una persona física cuya solicitud de
préstamo fue negada sobre la base de la información proporcionada por SCHUFA. El
demandante ejerció su derecho de acceso de protección de datos frente a SCHUFA.
Sin embargo, esta entidad le facilitó sólo información genérica, pero se negó a divulgar
los distintos datos que tenía del afectado, así como la ponderación de los mismos
que había realizado en forma de valores de probabilidad. Alegó para no facilitar más
información que no era SCHUFA quien había denegado el crédito, sino sus socios
contractuales, a quienes esta entidad había facilitado la información.
El tribunal alemán cuestiona al TJUE si la actividad de SCHUFA queda en el ámbito
del artículo 22 del RGPD (LA LEY 6637/2016), particularmente por cuanto no es esta
entidad la que adopta la «decisión automatizada», sino que sólo genera el valor de
probabilidad, que no constituiría una decisión. En consecuencia, no estaría obligado a
dar acceso al afectado por la decisión, respecto de la que es un tercero. La legislación
alemana sólo regula el «uso» del valor de probabilidad, pero no su generación.

CEPC Inteligencia artificial y administración de justicia 113


Sentencia del Tribunal de Justicia (Sala Quinta) de 26 de enero de 2023
Enlace a la Sentencia

Tratamiento de datos personales en el ámbito policial y judicial.


> Resumen
La recogida sistemática de datos biométricos y genéticos de cualquier persona
investigada a efectos de su inscripción en el registro policial es contraria al requisito
de garantizar una mayor protección con respecto al tratamiento de datos personales
sensibles.
En un proceso penal por fraude fiscal incoado por las autoridades búlgaras, se abrió
una investigación a V. S. en relación con su supuesta participación en una organización
criminal con ánimo de lucro, con el fin de cometer delitos en territorio búlgaro de
manera concertada. A raíz de la apertura de esa investigación, la policía búlgara instó
a V. S. a someterse a la recogida de sus datos dactiloscópicos y fotográficos a efectos
de su registro y a la obtención de muestras para la elaboración de su perfil ADN. V. S.
se opuso a dicha recogida.
Basándose en la normativa nacional que prevé la «inscripción en el registro policial»
de investigados por delitos públicos dolosos, las autoridades policiales solicitaron
al Tribunal Penal Especial de Bulgaria que autorizara la recogida forzosa de datos
genéticos y biométricos de V. S. Solo acompañaban al escrito de las autoridades
policiales las copias del auto por el que se decretan las diligencias policiales contra
ella y la declaración en la que se opone a la recogida de sus datos.
Ese tribunal albergaba dudas en cuanto a la compatibilidad de la normativa búlgara
aplicable a esa «inscripción en el registro policial» con la Directiva 2016/680, (1)
interpretada a la luz de la Carta de los Derechos Fundamentales de la Unión Europea
(en lo sucesivo, «Carta»), y planteó, por consiguiente, una cuestión prejudicial al
Tribunal de Justicia.
En su sentencia, el Tribunal de Justicia precisa, en primer lugar, las condiciones en
las que puede considerarse autorizado por el Derecho de un Estado miembro, en el
sentido de la Directiva 2016/680, el tratamiento de datos biométricos y genéticos por
parte de las autoridades policiales. A continuación, se pronuncia sobre la aplicación
del requisito, contemplado en dicha Directiva, relativo al tratamiento de datos de
una categoría de personas respecto de las cuales existen motivos fundados para
considerar que están implicadas en un delito y sobre el respeto del derecho a la
tutela judicial efectiva y del principio de la presunción de inocencia en el supuesto
de que la normativa nacional permita al órgano jurisdiccional nacional competente
autorizar la recogida forzosa de esos datos, considerados «sensibles» por el legislador
de la Unión. Por último, se pronuncia sobre la cuestión de la compatibilidad de la
normativa nacional que establece la recogida sistemática de dichos datos con las
disposiciones de la Directiva 2016/680 que se refieren a su tratamiento, teniendo en
cuenta los principios aplicables.

CEPC Inteligencia artificial y administración de justicia 114


Fuentes: Estados Unidos
Justia US Law - US Case Law

Sentencia Mata v. Avianca, Inc., No. 1:2022cv01461 - Document 54 (S.D.N.Y.


2023)
Enlace a la Sentencia

> Resumen
Uno de los abogados de una firma neoyorquina, fue contratado por R.M. para
interponer una demanda por lesiones contra Avianca Airlines. El letrado optó
por utilizar la herramienta de inteligencia artificial (ChatGPT) para redactar los
argumentos contra la compañía aérea y buscar jurisprudencia.
La demanda interpuesta citaba jurisprudencia que, en realidad, era ficticia. Entre
los casos mencionados se encontraban referencias a sentencias inventadas por
ChatGPT como consecuencia de “alucinaciones” de la herramienta. Aunque el letrado
afirmó que era la primera vez que utilizaba ChatGPT para investigaciones jurídicas y
«desconocía la posibilidad de que su contenido pudiera ser falso», el hecho es que las
citaciones legales mencionadas en los documentos no existían.
El uso indebido de ChatGPT, que generó datos no verificables y completamente
ficticios, evidenció una falta de diligencia en la investigación y verificación de fuentes,
lo que resultó en una penalización por la suma de 5.000 dolares al letrado.

Sentencia Molly KRUSE, Respondent, v. Jonathan R. KARLEN, et al.,


Appellant. ( Missouri Court of Appeals, Eastern District, DIVISION TWO.
February 13, 2024).
Enlace al recurso de la Sentencia

> Resumen
En su sentencia de 13 de febrero de 2024, Kruse v. Karlen, el Tribunal de Apelaciones
del Distrito Este de Missouri (Missouri Court of Appeals Eastern District), resuelve
el caso de un litigante que presentó una apelación en nombre propio, invocando
unos precedentes inexistentes.El Tribunal establece, en primer lugar, que las partes
que comparecen pro se, como el recurrente, están “sujetas a las mismas normas
procesales que las partes representadas por un abogado, incluidas las normas que
especifican el contenido requerido de los escritos de apelación”. Por tanto, estos
apelantes pro se “no tienen derecho a excepciones que no recibirían si estuvieran
representados por un abogado.” Y aunque el Tribunal reconoce “los problemas que
enfrentan los litigantes pro se, no por ello podemos relajar nuestros estándares
para los no abogados”. “Nuestra aplicación de las reglas no proviene de una falta de
simpatía, sino de una necesidad de imparcialidad judicial, economía judicial y justicia
para todas las partes”.
Se presentó un escrito en el que “la inmensa mayoría de las citas [de precedentes
jurisprudenciales] no sólo son inexactas, sino totalmente ficticias”. En concreto, “sólo
dos de las veinticuatro citas contenidas en el escrito de la recurrente son auténticas.
Además, destaca el tribunal, las citas incorrectas no se limitan a la jurisprudencia,
también alcanzan a la legislación aplicable: o bien se citan erróneamente leyes y
normas de Missouri, que o bien se refieren a una cuestión jurídica completamente
distinta de la que alega el recurrente o bien expresan erróneamente el contenido de
la ley.
En su descargo, el recurrente se disculpó por citar casos ficticios, diciendo que le
habían sido facilitados por un consultor en línea que contrató para redactar el escrito
y que afirmaba ser un abogado con licencia en California. Dijo que no sabía que esa
persona utilizaría “alucinaciones fruto de la inteligencia artificial” y negó cualquier
intención de engañar al tribunal.
Pero el tribunal se mostró terminante: “Lamentamos que el apelante nos haya
brindado nuestra primera oportunidad de considerar el impacto de los casos ficticios

CEPC Inteligencia artificial y administración de justicia 115


que se nos presentan, una cuestión que ha atraído la atención nacional debido a la
creciente disponibilidad de IA generativa”. “La presentación ante este Tribunal de un
escrito de apelación que, por la razón que sea, incluye citas falsas, no puede tolerarse
y representa una violación flagrante de los deberes de lealtad que la apelante debe a
este Tribunal”.
Se cita el precedente establecido por el Juzgado de Nueva York en el caso Mata vs.
Avianca.
Para proteger la integridad del sistema judicial, los tribunales de todo el país han
estado considerando y/o promulgando normas locales específicamente orientadas a
prohibir o revelar el uso de I.A. generativa en los escritos judiciales.
El tribunal concluyó que la presentación de casos ficticios en en este caso constituía
“un abuso del sistema judicial” y, además de desestimar su recurso, le condenó a
pagar 10.000 dólares en concepto de daños y perjuicios por los honorarios de los
abogados de su oponente.

Sentencia SMITH v. FARWELL (Massachusetts Superior Court. February


12, 2024)
Enlace a la Sentencia

> Resumen
En su sentencia de 12 de febrero de 2024, en el caso Smith v. Farwell, el Tribunal
Superior de Massachusetts (Massachusetts Superior Court) explica que, una
vez recibida la demanda, tuvo que pasar varias horas investigando las citas de
antecedentes jurisprudenciales incluidas en la misma, sin poder encontrar tres de
los casos citados.
El juez informó al abogado del demandante sobre los casos ficticios que había
encontrado, preguntándole cómo se habían incluido. Cuando el abogado dijo que
no lo sabía, el juez le ordenó presentar una explicación por escrito del origen de los
casos.
En su escrito, el abogado reconoció que había incluido “sin darse cuenta” citas de
múltiples casos que “no existían en la realidad”, atribuyendo su origen a un “sistema
de inteligencia artificial” no identificado, que alguien de su bufete había utilizado
para “localizar las citas legales pertinentes para respaldar nuestros argumentos”. Se
disculpó ante el juez por las citaciones falsas y lamentó no haber “ejercido la debida
diligencia para verificar la autenticidad de todas las referencias de jurisprudencia
proporcionadas por el sistema de Inteligencia Artificial.
Cuando el juez revisó más a fondo los antecedentes presentados por el demandante,
encontró un caso adicional inexistente.
En la audiencia, el abogado volvió a disculparse, diciendo que las alegaciones habían
sido preparadas por tres personas de su oficina: dos recién graduados de la facultad
de derecho y un abogado asociado. Y si bien el abogado había revisado los escritos
elaborados por estos colaboradores, en cuanto a estilo, gramática y fluidez, le dijo al
tribunal que no había verificado la exactitud de las citas.
Aunque el juez aceptó que la explicación del abogado era veraz y precisa y que no
presentó las citaciones a sabiendas y que la expresión de contrición del abogado
era sincera, consideró que “Estos hechos no exoneran de toda culpa al abogado del
demandante, ni obvian la necesidad de que el Tribunal adopte medidas de respuesta
para garantizar que el problema encontrado en este caso no vuelva a ocurrir en el
futuro”.
Por ello, consideró que estaba justificada la imposición de una sanción, porque
el abogado del demandante no tomó las precauciones básicas y necesarias que
probablemente habrían evitado la presentación de la demanda incluyendo citas de
casos ficticios.
Por esa razón, el juez decidió imponerle una sanción al abogado de 2.000 dólares (a
pagar al tribunal, no a la parte contraria).

CEPC Inteligencia artificial y administración de justicia 116


Fuentes: Colombia
Corte Constitucional
República de Colombia
Sentencia T-323 de 2024 (Corte Constitucional de Colombia).
Enlace a la Sentencia

Asunto: uso de herramientas de inteligencia artificial generativas en procesos


judiciales de tutela.
Enlace al texto

> Resumen
La accionante, actuando en representación de un hijo que presenta un diagnóstico de
trastorno de especto autista (TEA), considera que la EPS accionada vulneró derechos
fundamentales del menor al negar la solicitud de exoneración de copagos y cuotas
moderadoras; no suministrar el servicio de transporte interurbano con el fin de que
el niño pueda asistir a sus terapias y no garantizar un tratamiento integral.
El juzgado de primera instancia amparó los derechos a la salud y a la vida en
condiciones dignas del niño y el de segunda instancia confirmó esta decisión. Este
juez advirtió que haría uso de herramientas de inteligencia artificial generativas
(IA) para extender los argumentos de la decisión adoptada. Para el efecto utilizó la
herramienta ChatGPT 3.5.
En relación con el tema objeto de estudio se analizaron los siguientes tópicos:
1º. Los niños, niñas y adolescentes como sujetos de especial protección
constitucional.
2º. Las personas en situación de discapacidad como sujetos de especial protección
constitucional.
3º. El derecho a la salud.
4º. Los niños, niñas y adolescentes en situación de discapacidad y la protección
de su derecho fundamental a la salud.
5º. La prohibición de anteponer barreras administrativas para la prestación del
servicio de salud.
6º. El tratamiento integral.
7º. El reconocimiento de los gastos de transporte para el paciente y un
acompañante.8º. Los cobros en el sistema de seguridad social en salud.
9º. La exoneración de copagos y cuotas moderadoras para personas en situación
de discapacidad física o cognitiva.
Se confirmó parcialmente el fallo de segunda de instancia, el cual ratificó el que
concedió el amparo invocado. En tal sentido, se modificaron y complementaron
algunos apartes de dicha providencia. Además de lo anterior, la Corte se pronunció
de oficio sobre la decisión del juez de segunda instancia de utilizar una herramienta
de inteligencia artificial para elevar consultas jurídicas relacionadas con la materia
puesta a su conocimiento.
Para el efecto abordó el estudio de la siguiente temática:
1º. El derecho fundamental al debido proceso.
2º. El debido proceso en un sistema jurisdiccional que utiliza IA.
3º. El sistema de Inteligencia Artificial. Concepto y aspectos básicos de su
funcionamiento.
4º. Los impactos del uso de la precitada herramienta en la sociedad.
5º. El estado de la IA en Colombia.
6º. El marco regulatorio de la IA en el mundo.
7º. Algunas experiencias relacionadas con la IA en la práctica judicial.
8º. La garantía del juez natural en un sistema jurisdiccional que utiliza IA y,
9º. El debido proceso probatorio en un sistema jurisdiccional que utiliza IA.

CEPC Inteligencia artificial y administración de justicia 117


Se exhortó a los jueces de la República para que evalúen el adecuado uso de la
herramienta tecnológica ChatGPT y otras análogas o que se desarrollen en el ámbito
de la inteligencia artificial, valoren y consideren las mejores prácticas, y apliquen
criterios éticos y de respeto a los mandatos superiores, en orden a garantizar
los derechos fundamentales, en especial el debido proceso, cuando encuentren
necesario y pertinente hacer uso de aquellas, y asegurar la independencia y autonomía
judiciales, como garantías insustituibles para la vigencia del Estado Social de Derecho
y la democracia.
Se ordenó al Consejo Superior de la Judicatura divulgar una guía, manual o
lineamiento en relación con la implementación de la IA generativa en la Rama Judicial,
especialmente en cuanto al uso de la herramienta ChatGPT.
Así mismo se le ordenó que, a través de la Escuela Judicial Rodrigo Lara Bonilla,
divulgue esta providencia a todos los despachos judiciales del país y continúe
generando espacios de capacitación que fomenten el aprendizaje de conocimientos
básicos sobre el uso de la inteligencia artificial en el contexto judicial, junto con sus
riesgos y beneficios, con un enfoque de derechos.

CEPC Inteligencia artificial y administración de justicia 118


4
Bibliografía complementaria

Referencias bibliográficas ajustadas a las Normas APA (7ª edición).

CEPC Inteligencia artificial y administración de justicia 119


Monografías
Abadías Selma, A. & González Uriel, D. (2024). El impacto de la IA en el aprendizaje y en la práctica del
derecho. Aranzadi.
Abadías Selma, A., Simón Castellano, P. & Caterini M. (2024). Desafíos jurídicos de la inteligencia
artificial: Reflexiones sobre la toma de decisiones judiciales. J.M. Bosch.
Al Hasani Maturano, A. (2024). El impacto de la inteligencia artificial a los derechos fundamentales. Un
desafío jurídico a la sociedad. Aranzadi.
Arellano Toledo, W. (2023). Derecho, Ética e Inteligencia Artificial. Tirant lo Blanch.
Arrabal Platero, P. (2022). Los objetivos de desarrollo sostenible y la inteligencia artificial en el proceso
judicial. Tirant lo Blanch.
Barona Vilar, S. (2021). Algoritmización del derecho y de la justicia: De la inteligencia artificial a la Smart
Justice. Tirant lo Blanch.
Barona Vilar, S. (2021). Justicia algorítmica y neuroderecho: Una mirada multidisciplinar. Tirant lo
Blanch.
Benzal Medina, E. (2025). El tratamiento jurídico de la inteligencia artificial. Atelier.
Bustos Gisbert, R. & García Roca, F.J. (2025). Fortalecimiento de la democracia y el Estado de derecho a
través de la inteligencia artificial. Instituto Vasco de Administración Pública.
Calaza López, S. & Ordeñana Gezuraga, I. (2024). Next Generation Justice: Digitalización e Inteligencia
Artificial. La Ley.
Calaza López, S. & Sánchez-Arjona, M. L. (2022). Inteligencia artificial legal y administración de justicia.
Thomson Reuters Aranzadi.
Calaza López, S., Yáñez Vivero F. (2024). Digitalización del servicio público de justicia e inteligencia
artificial judicial. Dykinson.
Castellanos Claramunt, J. (2025). DemocracIA. Un análisis en clave constitucional. Dykinson.
Castilla Barea, C. & Cervilla Garzón M. D. (2024). El derecho y la justicia ante la inteligencia artificial y
otras tecnologías disruptivas. Aranzadi.
Castillejo Manzanares, R., Noya Ferreiro M. L. & Varela Gómez, B. J. (2023). Inteligencia artificial y
proceso penal: Un reto para la justicia. Aranzadi.
Castro Toledo, F. J., Sanjuán Andrés, F. J. & Pérez Juan, J. A. (2022). La transformación algorítmica del
sistema de justicia penal. Thomson Reuters Aranzadi.
Catalán Chamorro, M. J. (2023). La justicia digital en España: Retos y desafíos. Tirant lo Blanch.
Corvalán, J. G. (2021). Tratado de inteligencia artificial y Derecho (1-4). Thomson Reuters.
Dancy, T. (2023). Artificial Justice. Oxford University Press.
Fernández Hernández, C., García Mexía, P. L. & Soria Olivas, E. (2025). Guía práctica del Reglamento
Europeo de Inteligencia Artificial: Manual de referencia para conocer, entender y aplicar la AI Act.
Aranzadi La Ley.
Gómez Colomer, J. L. (2023). El juez robot. La independencia judicial en peligro. Tirant lo Blanch.
Innerarity, D. (2025). Una teoría crítica de la inteligencia artificial. Galaxia Gutenberg.
Jacob, K., Schindler, D., Strathausen, R., & Waltl, B. (2025). Liquid Legal – Sustaining the Rule of Law:
Artificial Intelligence, E-Justice, and the Cloud. Springer Nature Switzerland.
Llano Alonso, F. H., Garrido Martín, J., & Valdivia Jiménez, R. D. (2022). Inteligencia artificial y Filosofía
del derecho. Laborum.
Martín Ríos, M. del P., Villegas Delgado, C. A., Domínguez Barragán, M. L. & Rodríguez Laín, J. L.
(2023). La tecnología y la inteligencia artificial al servicio del proceso. Colex.

CEPC Inteligencia artificial y administración de justicia 120


Pereira i Puigvert, S., Ordóñez Ponz, F., Pesqueira Zamora, M. J. & Moral García, A. del (2021).
Investigación y proceso penal en el siglo XXI: nuevas tecnologías y protección de datos. Thomson
Reuters Aranzadi.
Pérez-Cruz Martín, A. J., Calaza López, S. & Roca Martínez, J. M. (2024). Desafíos del derecho procesal
del siglo XXI: prueba prohibida, inteligencia artificial y digitalización de la administración de
justicia. Dykinson.
Pérez Estrada, M. J. (2022). Fundamentos jurídicos para el uso de la inteligencia artificial en los órganos
judiciales. Tirant lo Blanch.
Pérez Martell, R. & Romero Duplá, C. (2024). Inteligencia artificial, justicia y objetivos de desarrollo
sostenible. J.M. Bosch.
Pinto Fontanillo, J. A. (2021). El Derecho inteligente. Programas de inteligencia artificial de ayuda al
sector jurídico. Edisofer.
Richard González, M., & Poelemans de Lara, M. (2024). Estudios sobre los efectos de la aplicación de la
inteligencia artificial en el sistema jurídico. J.M. Bosch.
Ryberg, J., & Roberts, J. V. (Eds.). (2022). Sentencing and Artificial Intelligence. Oxford University Press.
Ropero Carrasco, J. (2023). Aspectos jurídicos de actualidad en el ámbito del Derecho digital. Tirant lo
Blanch.
Sartor, G. (2022). L’intelligenza artificiale e il diritto. Giappichelli.
Simón Castellano, P. & Magro Servet, V. (2021). Justicia cautelar e inteligencia artificial: La alternativa
a los atávicos heurísticos judiciales. J.M. Bosch.
Solar Cayón, J. I. (2025). Inteligencia artificial jurídica e imperio de la ley. Tirant lo Blanch.
Solar Cayón, J. I. & Sánchez Martínez, M. O. (2022). El impacto de la inteligencia artificial en la teoría y
la práctica jurídica. Wolters Kluwer Legal & Regulatory España.
Sourdin, T. (2021). Judges, Technology and Artificial Intelligence. Edward Elgar Publishing.

Artículos de revista
Álvarez Buján, M. V. (2023). Inteligencia artificial y medidas cautelares en el proceso penal:
Tutela judicial efectiva y autodeterminación informativa en potencial riesgo. Revista
española de derecho constitucional, (127), 177-207.

Barona Vilar, S. (2022). La seductora algoritmización de la justicia. Hacia una justicia


poshumanista (Justicia+) ¿utópica o distópica? El Cronista del Estado Social y
Democrático de Derecho, 100 (Septiembre-Octubre), 36-47.

Barona Vilar, S. (2024a). El dilema del razonamiento, motivación y decisión judicial


algorítmica (IA): ¿la posibilidad de lo imposible? Teoría y derecho: revista de
pensamiento jurídico, 37, 150-175.

Barona Vilar, S. (2024b). Justicia con algoritmos e Inteligencia Artificial, ¿acuerpando


garantías y derechos procesales o liquidándolos? Derechos y libertades: Revista de
Filosofía del Derecho y derechos humanos, 51, 83-115.

Barrio Andrés, M. (2022). Inteligencia artificial: Origen, concepto, mito y realidad. El


Cronista del Estado Social y Democrático de Derecho, 100 (Septiembre-Octubre), 14-21.

Boix Palop, A. (2022). Transparencia en la utilización de inteligencia artificial por parte de la


Administración. El Cronista del Estado Social y Democrático de Derecho, 100, 90-105.

CEPC Inteligencia artificial y administración de justicia 121


Bustos Gisbert, R. (2024). El constitucionalista europeo ante la inteligencia artificial:
reflexiones metodológicas de un recién llegado. Revista Española de Derecho
Constitucional, 101, 149-178.

Cabrera Fernández, M. (2024). Aplicación de la Inteligencia Artificial a la toma de decisiones


judiciales. EUNOMÍA. Revista en Cultura de la Legalidad, 27, 183-200.

Cantero Gamito, M. (2024). Acceso a la justicia en tiempos de IA: ¿hacia una justicia low-
cost? Revista CIDOB d’Afers Internacionals, 138, 51-71.

Caterini, M., & Simón Castellano, P. (2022). El sistema penal en la encrucijada ante el reto de
la inteligencia artificial. IDP: revista de Internet, derecho y política = revista d’Internet,
dret i política, 35, 5.

Echebarría Sáenz, M. (2022). Retos de la Inteligencia artificial en el Derecho. El Cronista del


Estado Social y Democrático de Derecho, 100 (Septiembre-Octubre), 22-27.

Faggiani, V. (2022). El derecho a un proceso con todas las garantías ante los cambios de
paradigma de la inteligencia artificial. Teoría y realidad constitucional, 50, 517-546.

Farfán Intriago, J. L. , Farfán Largacha, J. A., Farfán Largacha, B., & Núñez Vera, J. P. (2023).
Inteligencia artificial y Derecho: ¿La justicia en manos de la IA? Frónesis, 30(2), 173-
197.

Guzmán Fluja, V. C. (2021). Proceso penal y justicia automatizada. Revista General de Derecho
Procesal, 53, 1.

Härmand, K. (2023). AI Systems’ Impact on the Recognition of Foreign Judgements: The Case
of Estonia. Juridica International, 32, 107-118.

Hoyos Sancho, M. de (2021). El uso jurisdiccional de los sistemas de inteligencia artificial y la


necesidad de su armonización en el contexto de la Unión Europea. Revista General de
Derecho Procesal, 55, 3.

Huergo Lora, A. J. (2024). Inteligencia artificial y Administraciones públicas: Para qué y


cómo. Teoría y derecho: revista de pensamiento jurídico, 37, 40-69.

Laukyte, M. (2024). Reflexión sobre los derechos fundamentales en la nueva Ley de la


Inteligencia Artificial. Derechos y libertades: Revista de Filosofía del Derecho y derechos
humanos, 51, 151-175.

Lavorgna, A., & Suffia, G. (2021). La nuova proposta europea per regolamentare i Sistemi
di Intelligenza Artificiale e la sua rilevanza nell’ambito della giustizia penale. Diritto
Penale Contemporaneo: Rivista trimestrale, 2, 97-112.

Leheza, Y., Len, V., Shkuta, O., Titarenkо, O., & Cherniak, N. (2022). Foreign experience and
international legal standards for the application of artificial intelligence in criminal
proceedings. Revista de La Universidad Del Zulia, 13(36), 276-287.

Lupária, L., & Fiorelli, G. (2022). Diritto probatorio e giudizi criminali ai tempi
dell’Intelligenza Artificiale. Diritto Penale Contemporaneo: Rivista trimestrale, 2, 42-
58.

Martínez Garay, L., & García Ortiz, A. M. (2022). Paradojas de los algoritmos predictivos
utilizados en el sistema de justicia penal. El Cronista del Estado Social y Democrático
de Derecho, 100 (Septiembre-Octubre), 160-173.

CEPC Inteligencia artificial y administración de justicia 122


Mateos Bustamante, J. (2023). De Stockfish a Skynet: Cuestiones principales de la
inteligencia artificial y el derecho penal. Revista Electrónica de Estudios Penales y de la
Seguridad: REEPS, 12, 14.

Miró Llinares, F. (2022). Inteligencia artificial, delito y control penal: Nuevas reflexiones y
algunas predicciones sobre su impacto en el derecho y la justicia penal. El Cronista
del Estado Social y Democrático de Derecho, 100, 174-183.

Molina Castañer, E. (2025). Protección de datos, inteligencia artificial y administración de


justicia. Revista Aranzadi Doctrinal, 1, 14.

Morales Higuita, L., Agudelo Londoño, S., Montoya Raigosa, M., & Montoya Vidales, A. M.
(2021). Inteligencia artificial en el proceso penal: Análisis a la luz del fiscal Watson.
Pensamiento jurídico, 54, 147-164.

Navarro Dolmestch, R., & Fuentes-Loureiro, M.-Á. (2023). Una aproximación a ChatGPT
como herramienta jurídica: Sesgos, capacidades y utilidades futuras. IDP: revista de
Internet, derecho y política = revista d’Internet, dret i política, 39, 7.

Navas Navarro, S. (2022). Responsabilidad civil e Inteligencia artificial. El Cronista del Estado
Social y Democrático de Derecho, 100, 106-115.

Neira Pena, A. M. (2021). Inteligencia artificial y tutela cautelar. Especial referencia a la


prisión provisional. Revista Brasileira de Direito Processual Penal, 7(3), 1897-1993.

Perea González, Á., Díaz Cappa, J., Pesqueira Zamora, M. J., Simón Castellano, P., Muñoz
Vela, J. M., & Romeo Casabona, C. M. (2022). Diálogos para el futuro judicial XLIX. La
Inteligencia Artificial y su impacto en el proceso penal. Diario La Ley, 10120, 3.

Pérez Estrada, M. J. (2021). La inteligencia artificial como prueba científica en el proceso


penal español. Revista Brasileira de Direito Processual Penal, 7(2), 1385-1410.

Pineros Polo, E. (2024). El Juez-Robot y su encaje en la Constitución Española: La


inteligencia artificial utilizada en el ámbito de la toma de decisiones por los
tribunales. Estudios de Deusto: revista de Derecho Público, 72(1), 53-78.

Ponce Solé, J. (2022). Reserva de humanidad y supervisión humana de la Inteligencia


artificial. El Cronista del Estado Social y Democrático de Derecho, 100 (Septiembre-
Octubre), 58-67.

Presno Linera, M. Á. (2022). Derechos fundamentales e inteligencia artificial en el Estado


social, democrático y digital de Derecho. El Cronista del Estado Social y Democrático
de Derecho, 100, 48-57.

Rivas Velasco, M. J. (2023). Uso ético de inteligencia artificial en justicia. Diario La Ley, 10327,
4.

Roa Avella, M., Sanabria Moyano, J. E., & Dinas Hurtado, K. (2022). Uso del algoritmo
COMPAS en el proceso penal y los riesgos a los derechos humanos. Revista Brasileira
de Direito Processual Penal, 8(1), 7.

Rodríguez del Blanco, A. (2024). Detectando los riesgos de la inteligencia artificial en la


instrucción penal. Revista General de Derecho Procesal, 64, 4.

Romera Bravo, F. J. (2025). El impacto de la inteligencia artificial en el derecho penal:


Delitos emergentes y marco jurídico europeo. Revista Jurídica Consejo Nacional de
Estudiantes de Derecho, 3, 41-50.

CEPC Inteligencia artificial y administración de justicia 123


San Miguel Caso, C. (2021). La aplicación de la Inteligencia Artificial en el proceso: ¿un nuevo
reto para las garantías procesales? IUS ET SCIENTIA: Revista electrónica de Derecho y
Ciencia, 7(1), 286-303.

Sanchis Crespo, C. (2023). Inteligencia artificial y decisiones judiciales: Crónica de una


transformación anunciada. Scire: Representación y organización del conocimiento,
29(2), 65-84.

Segura, R. (2023). Inteligencia artificial y administración de justicia: Desafíos derivados del


contexto latinoamericano. Revista de Bioética y Derecho, 45-72.

Simón Castellano, P. (2021a). Inteligencia artificial y Administración de Justicia: ¿Quo vadis,


justitia? IDP. Revista d’Internet, Dret i Política, 33.

Simón Castellano, P. (2021b). Inteligencia artificial y valoración de la prueba: Las garantías


jurídico-constitucionales del órgano de control. THEMIS: Revista de Derecho, 79, 283-
297.

Solar Cayón, J. I. (2021). Retos de la deontología de la abogacía en la era de la inteligencia


artificial jurídica. Derechos y libertades: Revista de Filosofía del Derecho y derechos
humanos, 45, 123-161.

Solar Cayón, J. I. (2024). La Inteligencia Artificial jurídica como herramienta para promover
el acceso al Derecho y a servicios jurídicos básicos. Derechos y libertades: Revista de
Filosofía del Derecho y derechos humanos, 51, 201-245.

Wu, W., & Lin, X. (2025). Access to technology, access to justice: China’s artificial intelligence
application in criminal proceedings. International Journal of Law, Crime and Justice,
81.

Zhang, X., Antwi-Afari, M. F., Zhang, Y., & Xing, X. (2024). The Impact of Artificial
Intelligence on Organizational Justice and Project Performance: A Systematic
Literature and Science Mapping Review. Buildings, 14(1).

Capítulos en obras colectivas


Borges Blázquez, R. (2022). Inteligencia artificial y perspectiva de género en el proceso penal, una
asignatura pendiente. En El derecho en la encrucijada tecnológica: Estudios sobre derechos
fundamentales, nuevas tecnologías e inteligencia artificial (pp. 281-299). Tirant lo Blanch.
Castillo Felipe, R., & Tomás Tomás, S. (2023). Proceso penal e inteligencia artificial: Prevenciones en
torno a su futura aplicación en la fase de juicio oral. En Derecho Penal, Inteligencia Artificial y
Neurociencias (p. 215). Roma Tre-Press.
Criado Enguix, J. (2025). Análisis procesal de la inteligencia artificial como herramienta decisoria
en el proceso penal español: Especial atención al deber de motivación de las sentencias. En
Inteligencia artificial, lucha contra el crimen organizado y proceso: Desafíos y límites en Europa
y América Latina (pp. 161-217). J.M. Bosch.
Delgado Castro, J., & Carrillo del Río, V. (2024). Tú dame los hechos: ¿yo te daré el derecho penal?
Aproximaciones al uso de inteligencia artificial en el proceso penal. En Algoritmización de la
justicia penal: Teoría y práctica (pp. 277-294). Juruá.
Galgani, B. (2021). Consideraciones sobre los “antecedentes” del acusado y del juez frente a la inteligencia
artificial (IA) en el proceso penal. En Nuevos postulados de la cooperación judicial en la Unión
Europea: Libro homenaje a la Prof.a Isabel González Cano (pp. 1147-1169). Tirant lo Blanch.

CEPC Inteligencia artificial y administración de justicia 124


García Aragón, R., Medina Moreno, J., & Pérez Medina, D. (2024). Las exigencias a los sistemas de
inteligencia artificial en el proceso penal derivadas del derecho a la defensa. En Algoritmización
de la justicia penal: Teoría y práctica (pp. 143-159). Juruá.
García Sánchez, M. D. (2021). Retos del uso de la inteligencia artificial en el proceso: Impugnaciones con
fundamentación algorítmica y derecho a la tutela judicial efectiva. En FODERTICS 9.0: Estudios
sobre tecnologías disruptivas y justicia (pp. 233-244). Comares.
Gil García, F. S. (2021a). Inteligencia artificial (IA) y proceso penal en China: Especial referencia al
sistema 206. En FODERTICS 9.0: Estudios sobre tecnologías disruptivas y justicia (pp. 347-360).
Comares.
Gómez Colomer, J. L. (2021). Unas reflexiones sobre el llamado «juez-robot», al hilo del principio de la
independencia judicial. En Justicia algorítmica y neuroderecho: Una mirada multidisciplinar (pp.
243-263). Tirant lo Blanch.
Gutiérrez, J. D. (2024). AI Technologies in the Judiciary: Critical Appraisal of Large Language Models in
Judicial Decision-making. En Handbook on Public Policy and Artificial Intelligence. Edward Elgar
Publishin.
Llorente Sánchez-Arjona, M. (2023). Proceso y garantías en la era de la inteligencia artificial. En
Proceso penal europeo: Últimas tendencias, análisis y perspectivas (pp. 29-48). Thomson Reuters
Aranzadi.
Martín Diz, F. (2022). Justicia predictiva: Inteligencia artificial y algoritmos aplicados al proceso judicial
en materia probatoria. En El impacto de las tecnologías disruptivas en el derecho procesal (pp.
131-154). Thomson Reuters Aranzadi.
Martín Ostos, J. (2025). Inteligencia artificial y justicia penal de menores. En De la ejecución a la historia
del Derecho Procesal y de sus protagonistas: Libro III: Proceso penal. Liber Amicorum en homenaje
al Profesor Manuel-Jesús Cachón Cadenas (pp. 401-420). Atelier.
Montoro Sánchez, J. A. (2023). Implicaciones relativas al derecho fundamental a la protección de datos
de carácter personal por el uso de inteligencia artificial en el proceso penal. En Inteligencia
artificial: Los Derechos Humanos en el centro (pp. 165-180). Dykinson.
Noya Ferreiro, M. L. (2022). Algunas consideraciones sobre inteligencia artificial, proceso penal y
derechos fundamentales. En Variaciones sobre un tema: El ejercicio procesal de los derechos:
Libro homenaje a Valentín Cortés Domínguez (pp. 685-702). Colex.
Noya Ferreiro, M. L. (2025). La aplicación de la Inteligencia Artificial en el proceso penal. Límites
derivados de la Constitución Española. En Estudios Jurídicos en Homenaje al Profesor Víctor
Moreno Catena (Vol. 3, pp. 2369-2398). Tirant lo Blanch.
Ortiz Pradillo, J. C. (2022). Inteligencia artificial, big data, tecnovigilancia y derechos fundamentales
en el proceso penal. En El derecho en la encrucijada tecnológica: Estudios sobre derechos
fundamentales, nuevas tecnologías e inteligencia artificial (pp. 103-127). Tirant lo Blanch.
Pérez Estrada, M. J. (2023). Aplicación de inteligencia artificial en la valoración de la prueba testifical en
el proceso penal español. En Aspectos críticos del Derecho Procesal: Diálogos Hispano-Italianos
en homenaje al Profesor Angelo Dondi (pp. 709-724). J.M. Bosch.
Pérez Francesch, J. L. (2024). Inteligencia artificial y proceso penal: Apuntes para un uso ético y
constitucionalmente adecuado. En Algoritmización de la justicia penal: Teoría y práctica (pp.
25-44). Juruá.
Suárez Xavier, P. R. (2023). Inteligência artificial, cooperação judicial e advocacia: Um olhar a partir
do ordenamento europeu. En Cooperación judicial civil y penal en la Unión Europea: Retos
pendientes y nuevos desafíos ante la transformación digital del proceso (pp. 267-300). Universidad
de Málaga.
Valiño Ces, A. (2023). La inteligencia artificial y su aplicación en el proceso: Los riesgos para la protección
y garantía de los derechos. En Proceso penal europeo: Últimas tendencias, análisis y perspectivas
(pp. 49-70). Thomson Reuters Aranzadi.

CEPC Inteligencia artificial y administración de justicia 125


Otras publicaciones
Agencia de la Unión Europea para la Cooperación Judicial Penal y Agencia de la Unión Europea para
la Gestión Operativa de Sistemas Informáticos de Gran Magnitud en el Espacio de Libertad,
Seguridad y Justicia (2022). Artificial intelligence supporting cross-border cooperation in
criminal justice : joint report prepared by eu-LISA and EUROJUST. Oficina de Publicaciones de
la UE.
Artificial intelligence and the future of judicial systems in Africa. Report (2024). Lawyers Hub.
Comisión Europea. Dirección General de Justicia y Consumidores (2023). Judicial training: The right
skills to embrace the digitalisation of justice: Report, Blue Point Brussels 26, 27 & 28 April 2023.
Oficina de Publicaciones de la UE.
Consejo de Europa (2023). El Consejo de Europa y la inteligencia artificial. Council of Europe Publishing.
Gutiérrez, J. D. (2023a). Hablemos sobre el uso de ChatGPT para redactar decisiones judiciales. La Silla
Vacía.
Gutiérrez, J. D. (2023b). Judges and Magistrates in Peru and Mexico Have ChatGPT Fever. Tech Policy
Press.
Gutiérrez, J. D. (2024). UNESCO Global Judges’ Initiative: Survey on the use of AI systems by judicial
operators. Biblioteca Digital de la UNESCO.
Le Fevre Cervini, E. (2022). Uso estratégico de datos e inteligencia artificial en la justicia. Informe 6. CAF.
Lorenzo Pérez, C. (2022). Inteligencia artificial en la Administración de Justicia: Regulación española y
marco europeo e internacional. Proyectos desarrollados por el Ministerio de Justicia de España.
Ministerio de Justicia.
Parlamento Europeo, Dirección General de Políticas Interiores de la Unión & Ünver, A. (2024).
Artificial intelligence (AI) and human rights : using AI as a weapon of repression and its impact
on human rights: in-depth analysis. Oficina de Publicaciones de la Unión Europea.

CEPC Inteligencia artificial y administración de justicia 126


Edita
Centro de Estudios Políticos y Constitucionales
Plaza de la Marina Española, nº 9 - 28071 Madrid

Contacto
+34 91540 19 50
[email protected]

También podría gustarte