AIdiritto First Online
AIdiritto First Online
Alessandro Pajno, Presidente Emerito del Consiglio di Stato e LUISS Guido Carli. Mail:
[email protected]; Marco Bassini, assegnista di ricerca in diritto costituzionale, Università Bocconi.
Mail: [email protected]; Giovanni De Gregorio, PhD, Università degli Studi di Milano-
Bicocca e Academic Fellow, Università Bocconi. Mail: [email protected]; Marco
Macchia, Professore Associato di Diritto amministrativo; Tor Vergata Università degli Studi di
Roma. Mail: [email protected]; Francesco Paolo Patti, Professore Associato di Diritto
privato, Università Bocconi. Mail: [email protected]; Oreste Pollicino, Professore
Ordinario di Diritto costituzionale, Università Bocconi. Mail: [email protected];
Serena Quattrocolo, Professore ordinario di diritto processuale penale e Direttore DIGSPES,
Università del Piemonte Orientale. Mail: [email protected]; Dario Simeoli, Consiglio di
Stato. Mail: [email protected]; Pietro Sirena, Professore Ordinario di Diritto
privato e Dean School of law, Università Bocconi. Mail: [email protected].
L’elaborazione giurisprudenziale di fronte alla società algoritmica – 6. Pars construens: per una
governance dell’intelligenza artificiale – 7. Intelligenza artificiale e diritto pubblico – 8.
Intelligenza artificiale e diritto civile – 9. Intelligenza artificiale e diritto penale – 10. Intelligenza
artificiale e processo – 11. Bibliografia – 12. Princìpi-guida
1. Premessa
I
l presente contributo nasce dal desiderio della Fondazione Leonardo - Civiltà
delle Macchine di approfondire lo studio dei moderni sistemi di intelligenza
artificiale e delle relative implicazioni anche da una prospettiva giuridica.
L’impegno che si intende profondere mira a stimolare la comunità scientifica e, più in
generale, gli stakeholders e gli attori istituzionali, a una meditata presa di coscienza sulle
conseguenze che derivano dalla diffusione di nuove tecnologie su larga scala che offrono
inedite opportunità ai cittadini, alle imprese e alle pubbliche amministrazioni ma al
contempo, ove non adeguatamente governate, possono dare origine a rischi per i diritti
e le libertà fondamentali.
Si impone, altresì, la necessità di assicurare che il progresso tecnologico si svolga in
armonia con le esigenze di tutela individuali e collettive, nel rispetto di una dimensione
antropocentrica. Occorre così delineare le modalità di intervento che minimizzino le
esternalità negative sullo sviluppo delle nuove tecnologie garantendo al contempo la
salvaguardia del nucleo duro dei diritti fondamentali. Con il presente documento si è
cercato di effettuare una mappatura dei tentativi sinora condotti a titolo sia di soft law,
sia di hard law, in campo giurisprudenziale e in ambito dottrinale, per offrire un congruo
inquadramento giuridico dell’intelligenza artificiale. Si è cercato altresì di illustrare quali
principi dovrebbero orientare e guidare i prossimi sviluppi. Svolta una mappatura
preliminare, infatti, il documento procede secondo una logica de jure condendo,
effettuando una rassegna di problematiche attraverso ideali carotaggi entro i vari settori
del diritto che appaiono attinti dalle innovazioni tecnologiche di cui si discute.
3
3. Gli strumenti di soft law
Il carattere ancora acerbo del dibattito, e allo stesso tempo la sua rilevanza, vengono
sottolineate dalla elaborazione di carte e strumenti a livello sovranazionale che si sono
susseguiti nel corso degli ultimi due anni al fine di fornire le prime linee guida
sull’intelligenza artificiale da almeno due punti di vista: la governance e la tutela dei
diritti.
All’interno della prima categoria si possono certamente menzionare i principi
sull’intelligenza artificiale emanati dall’Organizzazione per la cooperazione e lo sviluppo
economico (OCSE) nel marzo 2019. La raccomandazione costituisce il primo standard
intergovernativo sull’intelligenza artificiale e mira a perseguire diversi scopi: tra di essi,
la promozione della ricerca e nello sviluppo dell’automazione, di un ecosistema digitale
per l'intelligenza artificiale nonché la cooperazione internazionale in questo campo. Il
punto centrale del documento consiste nel bilanciamento tra l’innovazione, che riveste
un ruolo cruciale per lo sviluppo di nuovi servizi intelligenti, e la gestione responsabile di
tali tecnologie che si concretizza nel rispetto dei diritti umani e dei valori democratici.
Più in particolare, tale documento identifica cinque linee guida complementari ai fini di
una gestione responsabile dell’intelligenza artificiale: crescita inclusiva, lo sviluppo
sostenibile e il benessere; la salvaguardia dell’equità e di valori parametrati sull'uomo; la
trasparenza e comprensibilità; la robustezza, sicurezza e affidabilità; la responsabilità.
A livello regionale, il rapporto pubblicato nel giugno 2018 dal Gruppo di esperti europeo
sull’intelligenza artificiale costituisce un punto di riferimento per i prossimi passi. In
particolare, il documento in questione sottolinea il ruolo di queste nuove tecnologie nel
plasmare il tessuto sociale e costituire un fattore cruciale per la crescita dell’Europa. Allo
stesso tempo, gli effetti positivi derivanti dallo sviluppo e diffusione di tali tecnologie
vengono mitigati dai rischi che possono derivare dall’adozione di un approccio tecno-
centrico, nel quale l’uomo viene relegato in una dimensione marginale rispetto alla
tecnologia. Ed è qui che il documento sottolinea come le tecnologie basate su sistemi di
intelligenza artificiale debbano conformarsi a un approccio antropocentrico. Tali
tecnologie dovrebbero, infatti, costituire non solo un obiettivo dettato dall’innovazione
ma anche un mezzo per aumentare il benessere umano. Da una tale ricostruzione deriva
che siffatte tecnologie devono, da un lato, essere programmate nel rispetto dei diritti
fondamentali, della normativa applicabile e dei principi e dei valori di base, dall’altro,
assicurare affidabilità dal punto di vista tecnico, dal punto di vista della sicurezza e per
capacità di essere utilizzate in modo trasparente dalla società.
Sotto un altro punto di vista, la Carta etica sull’uso dell’intelligenze artificiale nei sistemi
giudiziari adottata nel contesto del Consiglio d’Europa dall’European Commission for the
Efficiency of Justice (CEPEJ) nel dicembre del 2018 si occupa di definire i principi che i
responsabili politici, i legislatori e i professionisti dovrebbero adottare nell’affrontare il
rapido sviluppo dell’intelligenza artificiale nel campo della giustizia e, più in particolare,
nei sistemi giudiziari nazionali. Similmente al report del gruppo di esperti europei, il
CEPEJ sottolinea l’importanza dell’applicazione di tali tecnologie nel campo della
4
giustizia al fine del miglioramento dell’efficienza e della qualità dei processi. Allo stesso
tempo, viene messo in luce come l’implementazione di tali tecnologie debba essere
attuata in modo responsabile, nel rispetto dei diritti fondamentali garantiti, in
particolare nella Convenzione europea sul Diritti umani (CEDU) e nella Convenzione del
Consiglio d’Europa sulla protezione dei dati personali. Tra i suddetti principi occorre
richiamare in primis il principio del rispetto dei diritti fondamentali, che mira ad
assicurare che strumenti e servizi di intelligenza artificiale siano progettati e attuati
secondo modalità idonee a salvaguardare la tutela di tali diritti. Da un tale approccio
costituzionale derivano il principio di non discriminazione che mira a prevenire
specificamente lo sviluppo o l'intensificazione di qualsiasi discriminazione tra individui o
gruppi di individui; il principio di qualità e sicurezza che richiede di ricorrere a fonti
certificate e dati immateriali con modelli concepiti in modo multidisciplinare in un
ambiente tecnologico sicuro; il principio di trasparenza, imparzialità ed equità atto a
rendere i metodi di trattamento dei dati accessibili e comprensibili, autorizzando audit
esterni; e il principio di controllo finalizzato a garantire che gli individui siano attori
informati e in controllo delle loro scelte.
A livello dell’Unione europea, il Parlamento europeo si è occupato di fornire le prime
linee guida in merito alla responsabilità civile nel settore della robotica già nel febbraio
2017. In particolare, la risoluzione del Parlamento fornisce diverse proposte in materia
di responsabilità per danno causato da un robot come l’applicazione degli istituti della
responsabilità oggettiva, la gestione dei rischi, l’istituzione di un regime di assicurazione
obbligatorio nonché l’istituzione di uno status giuridico ad hoc consistente in una
personalità elettronica, che permetta di ritenere i robot più sofisticati responsabili delle
proprie azioni dannose. Più di recente, la Commissione europea ha adottato una
Comunicazione su “L’intelligenza artificiale per l’Europa”, documento non vincolante che
sintetizza la strategia europea rispetto al fenomeno dell’automazione. Tale
comunicazione mira a dare impulso alla capacità tecnologica e industriale dell’UE e
all’adozione dell’intelligenza artificiale in tutti i settori economici, sia privati che pubblici,
attraverso investimenti in ricerca e innovazione e un migliore accesso ai dati. Essa è
volta, altresì, a facilitare la preparazione ai cambiamenti socio-economici apportati
dall’intelligenza artificiale, incoraggiando la modernizzazione dell’istruzione e dei sistemi
di formazione, sostenendo il talento, anticipando i cambiamenti nel mercato del lavoro e
fornendo appoggio alle transizioni nel mercato del lavoro e all’adeguamento dei sistemi
di protezione sociale. Tale strategia viene radicata in un quadro etico e giuridico
adeguato, basato sui valori dell’Unione e coerente con la Carta dei diritti fondamentali
dell’UE.
Le iniziative di soft law prese in considerazione rivelano alcune tendenze comuni.
Sottesa a larga parte dei documenti in parola è una generale preoccupazione affinché lo
sviluppo dei moderni sistemi di intelligenza artificiale e delle tecnologie algoritmiche si
svolga in armonia con la tutela dei diritti e delle libertà individuali. Vi è una diffusa
percezione circa gli innumerevoli vantaggi che l’implementazione di queste tecnologie
può recare entro una varietà di settori (dalla giustizia alla pubblica amministrazione,
5
passando per l’esecuzione degli impegni contrattuali). Ad essa si accompagna la ferma
consapevolezza in ordine alla necessità di conservare una funzionalizzazione dei loro
utilizzi alla salvaguardia della dignità umana e dei diritti.
Questa preoccupazione si percepisce soprattutto nell’insistenza di alcuni documenti nel
declinare principi che possano offrire un adeguato margine di manovra a legislatori e
regolatori, costituendo al contempo importanti indicazioni di policy.
Dal punto di vista della governance, sembra proporsi un approccio multistakeholder,
fondato sul coinvolgimento dei diversi soggetti che rivestono un ruolo cruciale nel
funzionamento della tecnologia. Non possono essere trascurati i dubbi derivanti
dall’applicazione di un tale approccio i cui effetti hanno rivelato in altri settori risultati
insoddisfacenti specialmente quando si concretizzano in forme di concertazione quali,
ad esempio, la co-regulation o la self-regulation. Alcuni esempi possono essere
riscontrati nei codici di condotta relativi a hate speech e alla disinformazione online,
dove la provenienza da parte degli attori non istituzionali delle regole segna il confine
della loro efficacia. Esistono forme di concertazione tra parti private e soggetti pubblici
che permettono a questi ultimi di definire con cognizione di causa e in maniera
rispondente alla sensibilità dei primi standard, regole di condotta, principi e linee guida.
L’adozione di un approccio bottom-up non esclude la validità di possibili diverse
iniziative. Tanto più tecnico sarà il loro contenuto, tanto più potranno rivelarsi efficaci.
Viceversa, se il contenuto corrisponde a scelte di policy, sarà più difficile immaginarne
l’efficacia e pretenderne la condivisione e il supporto da parte di attori pubblici-
istituzionali.
Un ulteriore profilo che emerge chiaramente dai primi tentativi di inquadrare il tema
dell’intelligenza artificiale riguarda la potenziale codificazione dei diritti digitali. Tale
tendenza verso la positivizzazione di nuovi interessi trova spazio alla luce dell’esigenza di
coniare un nuovo statuto della persona a fronte dell’erompere di poteri privati. Tracce di
questo processo emergono già dalla definizione di un diritto alla spiegazione in seno al
Regolamento Generale sulla Protezione dei Dati Personali (“GDPR”) nell’ambito della
decisione algoritmica automatizzata. Eppure, l’art. 22 coglie soltanto una porzione, se
non una fase embrionale, di sviluppo di queste situazioni giuridiche. Giova osservare che
lo stesso GDPR potrebbe offrire una chiave di lettura su come approntare strumenti a
protezione degli individui nel rapporto non tra pubblico e privato, ma tra soggetti che
agiscono meramente come controparti di un rapporto orizzontale tramite una
amministrativizzazione della protezione dati, ossia attraverso la definizione di alcune
misure che rispondono all’obiettivo di assicurare maggiore accountability e trasparenza
da parte di chi utilizzi IA.
Si pone dunque il tema della possibile cristallizzazione di nuovi diritti sostanziali e nuovi
diritti procedurali, che per sono accomuna dalla “orizzontalità”, ossia dal
riconoscimento in capo all’individuo nel rapporto con l’utilizzatore di intelligenza
artificiale che agisce come soggetto in posizione non necessariamente autoritativa, non
escludendo la possibilità che ciò avvenga anche da parte di autorità pubbliche.
6
Tali diritti, tuttavia, necessitano di un sistema affidabile di enforcement in assenza del
quale resterebbero soltanto delle prescrizioni senza alcuna pretesa di vincolatività. Sotto
tale profilo, meno indagata rispetto alle precedenti questioni, ma allo stesso tempo
cruciale per assicurare la tutela dei diritti, è la questione riguardante quali soggetti
possano assicurare un enforcement effettivo dei nuovi diritti digitali. In particolare,
l’approccio basato su una pluralità di stakeholder sembra essere la strada intrapresa. Si
può osservare come tra i canali privilegiati da parte del GDPR per garantire il rispetto dei
principi sulla data protection vi siano codici di condotta e meccanismi di certificazione,
che naturalmente per un verso sono frutto di forme di multistakholderism, ma
presuppongono al contempo il ruolo di un soggetto pubblico o comunque investito di
una funzione pubblicistica. Questo soggetto potrebbe essere congegnato alla stregua di
un ente certificatore che a livello sovranazionale, onde definire uno standard comune,
neutrale alle specifiche sensibilità costituzionali, intervenga specificamente sugli
standard, riconoscendo quali siano quelli idonei a garantire la tutela dell’individuo
rispetto all’uso dell’intelligenza artificiale.
Nella medesima direzione, ma sul piano degli attori pubblici, merita senz’altro
attenzione l’esempio pionieristico del Codice dell’Amministrazione Digitale (d.lgs. n.
82/2005), che ha costituito un primo esempio di sistematizzazione delle norme
concernenti la digitalizzazione della pubblica amministrazione nei rapporti sia con i
cittadini sia con le imprese e che da ultimo è parso offrire spazi sempre maggiori al
concetto di “cittadinanza digitale”.
In tale quadro d’insieme, le iniziative finora susseguitesi nei vari ambiti, e in modo
particolare in quello giuridico-regolatorio, documentano una frammentarietà nella
declinazione di linee guida tendenzialmente settoriali e la carenza di interventi di
carattere organico sotto forma di hard law. Si è ancora in una fase embrionale
caratterizzata da interventi sparsi che declinano perlopiù principi a tutela del cittadino,
ma che non sembrano ispirati da una ratio omogenea e unificante.
Tale frammentazione porta a riflettere sul ruolo del giurista nella società dell’algoritmo,
funzione che assume una rilevanza fondamentale come avviene in tutte le fasi di
transizione tra nuovi paradigmi che comportano cambiamenti radicali dello status quo.
Tuttavia, la trasformazione del giurista non è solo dovuta a un adattamento delle
capacità di affrontare le sfide dell’intelligenza artificiale utilizzando strumenti tradizionali
operando nel rispetto del principio di rule of law, ma è anche legata al supporto che
proprio le tecnologie di intelligenza artificiale promettono di fornire come ausilio alle
attività del giurista. Ne consegue che le nuove tecnologie dell’automazione costituiscono
non solo una sfida per il giurista, ma anche un’opportunità nella gestione efficiente dei
propri compiti confermando il duplice binario (non necessariamente “oppositivo”) che si
sta delineando tra uomo e macchina.
In chiave di tecnica normativa, si deve porre un’ulteriore questione metodologica in
ordine alla modalità che consenta di raggiungere più efficacemente gli obiettivi
perseguiti da legislatori e regolatori. Sul piano delle fonti, infatti, un processo di
deregulation e delegificazione in favore dell’intervento di atti normativi di rango
7
secondario, entro un quadro opportunamente definito dal legislatore, appare opzione
preferibile alla luce della rapidità dei mutamenti tecnologici e della necessità di disporre
di set di norme talvolta connaturate anche da un elevato contenuto tecnico che più
difficilmente potrebbero derivare dal procedimento legislativo ordinario.
Da ultimo, occorre che le autorità nazionali si confrontino con l’esperienza di alcuni
paesi baltici, notoriamente più avanzati nelle politiche dell’innovazione e in particolare
nello sviluppo del digitale. L’Estonia, per esempio, ha da tempo intrapreso politiche
all’avanguardia in materia, elaborando sia progetti per il riconoscimento di personalità
giuridica alle macchine sia proposte per l’introduzione di “robot magistrati” destinati a
occuparsi di cause di minore entità. Occorre, pertanto, allargare lo sguardo a questi
ordinamenti onde comprendere se le opzioni prescelte anche in campo normativo
possano prestarsi a una circolazione e a un eventuale condivisione su più larga scala,
costituendo la “cartina di tornasole” della varietà dei profili al centro del dibattito.
Lo sviluppo dei primi strumenti di soft law non ha frenato le riflessioni in campo
dottrinale, destinate a confrontarsi con la difficoltà (comune alla giurisprudenza) di
sussumere entro fattispecie pensate prima dell’avvento della società algoritmica
fenomeni che paiono discostarsi da paradigmi consolidati. La letteratura giuridica, pur
incline da decenni a confrontarsi con l’emersione del fattore tecnologico e con le sue
conseguenze (Costanzo, 2012) sotto una moltitudine di prospettive – filosofia del diritto,
diritto pubblico, diritto privato, diritto penale, solo per citarne alcune – appare
attraversare una fase ancora embrionale. Il formante giurisprudenziale non manca di
scontare analoghe criticità Tuttavia presenta una propria specificità: la necessità di
risolvere un caso concreto in ossequio al principio che esige la soggezione dei giudici
soltanto alla legge, e dunque entro il perimetro dello strumentario giuridico esistente.
Il contributo tanto della dottrina quanto della giurisprudenza ha senz’altro risentito, in
parte, delle analoghe problematiche che si sono poste già in passato con riferimento
all’ambito della robotica, pur nella consapevolezza della non piena sovrapponibilità delle
categorie in parola. Le caratterizzazioni dell’intelligenza artificiale, in particolare le
proprietà che ne descrivono le capacità di machine learning, suggeriscono tuttavia una
considerazione peculiare e specifica di questo fenomeno.
Sul piano dottrinale, uno dei principali interrogativi concerne la possibilità di ipotizzare
un riconoscimento di soggettività giuridica in capo ai sistemi di intelligenza artificiale
(Sartor, 2009; Pagallo, 2013). Si tratta del presupposto per imputare loro non solo il
riconoscimento di diritti (e doveri) ma altresì la responsabilità per possibili eventi lesivi
derivanti dal loro funzionamento. Tale problematica, tra le più cogenti all’attenzione dei
commentatori (Sartor, 2009), si trova al centro di un diffuso dibattito alimentato
soprattutto dalla possibilità che i sistemi di intelligenza artificiale elaborino e attuino
comportamenti che deviano dagli input ricevuti da programmatori e/o utilizzatori. Come
si segnalerà oltre, le riflessioni dei commentatori si sono appuntate sull’esame dei vari
8
paradigmi di responsabilità civile codificati dall’ordinamento giuridico, al fine di
appurare la possibilità di estenderne analogicamente l’applicazione anche all’intelligenza
artificiale. In ambito nordamericano, si è addirittura assistito alla teorizzazione, da parte
di un autore (Hallevy, 2010), di possibili forme di responsabilità penale della macchina
fondate sull’implicita attribuzione di personalità giuridica, anticamera di una sostanziale
assimilazione tra agenti umani e agenti robotici. Questo modello postula la
differenziazione tra tre possibili scenari: (i) la perpetration through another, ove il
sistema di intelligenza artificiale è mero esecutore materiale, privo di capacità cognitiva
e dunque volitiva, di una condotta istigata e voluta del programmatore o dell’utente; in
tali circostanze, l’intelligenza artificiale sarebbe paragonabile a un soggetto incapace e
pertanto non potrebbe subire alcuna imputazione di responsabilità; (ii) la natural
probable consequence, ove programmatori e utenti sono considerati penalmente
responsabili di un reato commesso dall’intelligenza artificiale come conseguenza
naturale e probabile di un loro comportamento doloso o colposo, per esempio di un
errore nella programmazione o nell’uso; (iii) la direct liability, ove si presuppone che
l’intelligenza artificiale sia dotata di mens rea e dunque compatibile con un’attribuzione
di responsabilità per una condotta da essa materialmente eseguita. A tale scenario viene
equiparata l’ipotesi di aberratio delicti in cui, programmata per commettere un
determinato reato, l’intelligenza artificiale, deviando dagli input di programmatori o
utenti, ne commetta uno di diverso tipo.
Nel terzo dei paradigmi descritti, Hallevy ipotizza una possibile applicazione di pene
costruite secondo un principio di equivalenza tra macchina e umano. Si tratterebbe della
cancellazione del software volta a neutralizzare il sistema oppure della sua
disattivazione per un periodo di tempo prestabilito onde favorirne una rieducazione.
All’esame della dottrina si pongono ulteriori profili che indirettamente riflettono la
difficoltà di conciliare le categorie giuridiche esistenti e il carattere innovativo della
tecnologia. Tra le altre, la possibilità di realizzare una perfetta sostituzione tra automi o
sistemi di intelligenza artificiale e agenti umani nell’espletamento di attività lavorative,
con le evidenti ripercussioni che questa opzione potrebbe comportare nell’ambito di
svariate professioni (Estlund, 2018). Nel campo della giustizia e dell’assistenza legale, le
prime applicazioni in via sperimentale di tecniche algoritmiche sollevano diversi
interrogativi, non circoscritti alla effettiva funzionalità di questi sistemi.
Da ultimo, la dottrina ha esplorato approfonditamente, soprattutto nel corso degli anni
più recenti, i profili inerenti alla protezione dei dati personali, al cospetto di una
importante riforma del quadro legislativo vigente a livello europeo, che ha visto l’entrata
in vigore del già ricordato GDPR (Pizzetti, 2018). Tale atto delinea un primo sistema di
protezioni rispetto all’individuo i cui dati costituiscono oggetto di un processo
decisionale automatizzato (Wachter-Mittelstadt-Floridi, 2017). Non è un caso che i
principi di privacy by design e by default siano stati richiamati come guida per il titolare
del trattamento al fine di assicurare il rispetto dei dati personali attraverso la
predisposizione di misure tecniche e organizzative adeguate, volte ad attuare in modo
efficace i principi di protezione dei dati (by design), nonché a garantire che siano trattati,
9
per impostazione predefinita, solo i dati personali necessari per ogni specifica finalità del
trattamento (by default).
Come osservato, però, queste ricerche dovrebbero emanciparsi dall’ambito specifico
della protezione dati. Lo studio sulle dinamiche di controllo della persona sui processi
automatizzati andrebbe collocato entro un contesto di più ampio respiro, che permetta
di apprezzarne le implicazioni (per esempio, nel contesto relativo a decisioni
amministrative o provvedimenti giurisdizionali automatizzati).
10
Le pronunce paradigmatiche in questo ambito risalgono, per un verso, al Consiglio di
Stato italiano (sez. VI, 8 aprile 2019, n. 2270) e al Conseil Constitutionnel francese
(sentenza n. 2018-765 DC del 12 giugno 2018) e, per altro, alla Corte Suprema del
Wisconsin (Loomis v. Wysconsin, 881 N.W.2d 749 (Wis. 2016), certiorari negato con
sentenza 137 S.Ct. 2290, 2017).
Da un lato, il Consiglio di Stato si è espresso, nello scorso aprile, in una vicenda originata
dall’utilizzo da parte del MIUR di un sistema algoritmico per la definizione delle
assegnazioni del personale docente della scuola secondaria. Il supremo organo di
giustizia amministrativa ha chiarito che la regola tecnica che governa ciascun algoritmo
resta pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla
macchina, per essere poi (solo) applicata da quest’ultima. Pertanto, la “regola
algoritmica” deve rispettare alcuni requisiti: (i) ancorché declinata in forma matematica,
ha piena valenza giuridica e amministrativa, e come tale deve soggiacere ai principi di
pubblicità e trasparenza, di ragionevolezza e di proporzionalità; (ii) non può lasciare
spazi applicativi discrezionali ma deve prevedere con ragionevolezza una soluzione
definita per tutti i casi possibili, cosicché la discrezionalità amministrativa, non
demandabile al software, possa rintracciarsi al momento dell’elaborazione dello
strumento digitale; (iii) presuppone che sia l’amministrazione a compiere un ruolo ex
ante di mediazione e composizione di interessi, anche per mezzo di costanti test,
aggiornamenti e modalità di perfezionamento dell’algoritmo; (iv) deve contemplare la
possibilità che sia il giudice a svolgere, sul piano “umano”, valutazioni e accertamenti
fatti direttamente in via automatica, per permettergli di apprezzare la correttezza del
processo automatizzato in tutte le sue componenti.
La decisione del Consiglio di Stato ha fatto seguito a una serie di ricorsi sui quali si era
precedentemente pronunciato il Tribunale Amministrativo Regionale del Lazio, con
sentenze non sempre lineari, frutto della difficoltà di inquadrare univocamente una
materia da ricollocarsi entro le categorie esistenti (tra le altre, Tar Lazio – Roma, sez. III
bis, 22 marzo 2017, n. 3769; 10 settembre 2018, n. 9227; 12 marzo 2019, n. 3238; 27
maggio 2019 n. 6606). In particolare, ha suscitato dibattito la possibilità per un
algoritmo, anche laddove “istruito” da un agente umano e dunque pre-impostato in
base a un sistema assiologico, di assicurare il rispetto delle garanzie procedimentali
contemplate dalla legge sul procedimento amministrativo.
In Francia, una decisione del Conseil Constitutionnel del 2018 si è pronunciata sulla
legittimità di una norma che ampliava la possibilità per la pubblica amministrazione di
ricorrere (seppure a titolo di eccezione) a decisioni in grado di produrre effetti giuridici
sugli individui fondate su un trattamento automatico di dati personali. La stessa
disposizione legittimava decisioni automatizzate nel caso in cui (i) l’attività algoritmica
non riguardasse dati sensibili, (ii) fosse possibile una via di ricorso amministrativa e (iii)
fossero fornite adeguate informazioni in relazione all’utilizzo di algoritmi. Di tale norma
veniva dedotto un possibile conflitto con la distribuzione dei poteri esecutivi prevista
dall’art. 21 della Costituzione, soprattutto in relazione alle capacità di
autoapprendimento degli algoritmi che avrebbero potuto determinare l’applicazione di
11
regole differenti da quelle pre-impostate. Il Conseil ha per escluso l’esistenza di profili
di incostituzionalità, ritenendo che fossero state osservate tutte le garanzie necessarie
alla salvaguardia dei diritti e delle libertà degli individui. Tra queste, rientravano fattori
come: la limitazione dell’utilizzo a specifiche tipologie di decisioni, la previsione delle
ricordate condizioni legittimanti e la possibilità per l’individuo destinatario ultimo di una
decisione di ottenere una spiegazione in modalità intellegibili e dettagliate del
funzionamento del processo algoritmico.
Dall’altro lato dell’Oceano, invece, nel caso State v. Loomis, la Supreme Court del
Wisconsin ha confermato nel 2016 la decisione d’appello in un procedimento penale
conclusosi con la condanna dell’imputato in cui era stato tenuto in conto, ai fini della
recidiva, il risultato di un Presentence Investigation Report prodotto attraverso l’uso di
un software proprietario (COMPAS), il cui funzionamento risulta coperto da segreto
industriale. Tale software restituisce risk assessment sulla base sia delle informazioni
raccolte sulla base di un colloquio con l’imputato sia delle informazioni relative al suo
storico criminale. In questa pronuncia, la Corte ha ritenuto che l’utilizzo del software
non implicasse una violazione del principio del giusto processo (essendo i suoi risultati
peraltro rilevanti solo per la valutazione della recidiva e non per la decisione circa la
condanna); tuttavia, ha enunciato alcune cautele di cui tenere conto onde garantire che
il risultato ultimo sia sempre il frutto di un apprezzamento da parte di un agente umano,
che potrà eventualmente rivedere gli esiti del processo algoritmico.
12
Contestualizzando tali riflessioni nel campo dell’intelligenza artificiale e astraendole a un
livello metagiuridico, il punto di equilibrio deve essere trovato tra l’uomo e la macchina
al fine di scongiurare che lo sviluppo dell’automazione porti l’uomo in una posizione di
subordinazione a una sua stessa creazione., Appare dunque necessario che, a fronte
dell’erompere dei sistemi di intelligenza artificiale, i giuristi profondano gli sforzi per
restituire un ecosistema antropocentrico, nel quale il fattore tecnologico non sovrasti e
non si imponga sui valori, primo fra tutti la dignità, su cui si incentra la tutela
dell’individuo. In tal senso, si avverte la necessità che il diritto “guidi” e “orienti” la
tecnologia, onde permetterle di percorrere binari rispettosi di un sistema assiologico di
valori riflesso nelle costituzioni degli stati moderni e nei trattati internazionali. Affinché
tale missione sia portata a compimento, però, non è sufficiente (né forse, a rigore, è
necessaria) un’opera di rivisitazione delle garanzie costituzionali dei diritti fondamentali;
occorre, invece, una puntuale verifica circa le norme dell’ordinamento positivo e la loro
perdurante abilità a riflettere alcuni principi ispiratori che ne giustificano la collocazione
all’interno del sistema delle fonti.
Il diritto deve pertanto regolare la tecnologia, così da condizionarne virtuosamente il
funzionamento, declinandolo al perseguimento delle finalità sottese all’azione di
legislatori e regolatori. Occorre tuttavia assicurare che l’intervento delle regole
giuridiche, cruciale onde scongiurare derive tecnocratiche che preludano
all’affermazione del dominio della tecnica, si concretizzi mediante modalità appropriate
che non assumano i contorni di un controllo pubblico di carattere “censorio”. Al
contrario, tali modalità dovranno saper attuare l’esigenza di certezza del diritto secondo
regole resistenti alla natura “disruptive” dell’intelligenza artificiale. La certezza del diritto
costituisce, in ultima analisi, l’obiettivo cui deve tendere l’ordinamento giuridico al
cospetto delle novità immesse dalle evoluzioni tecnologiche. La conoscenza e
l’“accessibilità” delle implicazioni derivanti dall’utilizzo di tecniche e sistemi algoritmici,
infatti, costituiscono fattori dirimenti per scelte imprenditoriali come l’adozione di un
determinato modello di business o l’implementazione di sistemi innovativi da parte delle
pubbliche amministrazioni. Queste tecnologie consegnano inedite opportunità di
sviluppo e di esercizio da parte degli individui dei diritti di cittadinanza (una cittadinanza
sempre più “digitale”). Esse recano, tuttavia, rischi e possibili insidie derivanti dalla
intrinseca difficoltà di decodificarne la fisionomia e il funzionamento secondo i
paradigmi esistenti. In questo specifico versante si avverte l’interesse dei giuristi e la
rilevanza del compito di definire regole appropriate. Con una fondamentale premessa: la
declinazione di un set di regole funzionale all’efficace ricorso a sistemi di intelligenza
artificiale non presuppone necessariamente la codificazione di una lex specialis che ne
governi il funzionamento, nutrendosi invece della valutazione a mo’ di “fitness test”
della perdurante capacità delle norme giuridiche di rispondere alla relativa ratio anche
nella loro applicazione ai sistemi di intelligenza artificiale.
Inoltre, il ruolo della rule of law costituisce un punto di riferimento cruciale per l’attività
giurisprudenziale che, in assenza di regole chiare, come si è assistito in diverse occasioni
nel caso di Internet, è naturalmente spinta a interpretare e, alle volte, manipolare il
13
diritto attraverso forme di judicial activism che ricalcano l’attività del legislatore
(Pollicino-Bassini, 2014). Pertanto, al fine di garantire il principio di separazione dei
poteri evitando non solo derive tecnocratiche ma anche eccessivi interventi
giurisprudenziali giustificati dalla necessità di colmare le lacune normative, la certezza
del diritto costituisce il punto di equilibrio a cui l’intero sistema giuridico deve tendere
anche, e soprattutto, nella società dell’algoritmo.
Entro questo quadro, si impone di effettuare una rassegna dei vari ambiti nei quali è
opportuno rivalutare la tenuta delle categorie esistenti, individuandoli nel diritto
costituzionale e amministrativo, nel diritto civile, nel diritto penale e nel diritto
processuale. Naturalmente le riflessioni che riguardano ciascuno dei segmenti non
potranno che avere un impatto anche sugli altri, stante la necessità che le norme di
diritto positivo si conformino a una serie di principi comuni al di là della specifica branca
cui appartengono.
25
Con la transizione da applicazione algoritmiche deterministiche ad applicazioni
probabilistiche, la decisione non deriva semplicemente dalla pedissequa applicazione del
ragionamento deduttivo, ma è basata sul contemporaneo apprezzamento di una
pluralità di interessi ed istanze che vengono in rilievo nel caso concreto. Si realizza in tal
senso un passaggio sintetizzabile nella formula dalla delega di processo alla delega di
decisione, che implica necessariamente l’accettazione dell’esistenza del margine di
errore. La tecnologia potrebbe assicurare maggiore velocità e un significativo risparmio
di risorse. Come in altri campi, le innovative soluzioni che la tecnologia è in grado di
offrire per la soluzione delle controversie civili dovranno necessariamente conseguire un
elevato livello di accettazione sociale prima di essere implementate. Merita attenzione,
altresì, l’impatto che i sistemi di open access, associati a strumenti algoritmici predittivi,
possono produrre sul piano del valore del precedente e dell’indipendenza degli organi
giudicanti.
La regolazione etica e giuridica di tali profili deve tenere conto degli snodi organizzativi
entro cui domanda ed offerta di giustizia si incontrano. Quattro appaiono le dimensioni
funzionali che necessitano di essere poste alla attenzione della norma etica e giuridica in
questo contesto: conoscenza, rito del processo, status dell’organo terzo dirimente le
controversie, dati personali. I principi che vanno richiamati in tale senso sono: (i)
responsabilità professionale e trasparenza della produzione della conoscenza; (ii)
applicazione delle garanzie processuali di difesa; (iii) autonomia della giurisdizione e
indipendenza del giudice; (iv) privacy e sicurezza dei dati. Essi possono essere declinati in
norme etiche e in norme giuridiche.
Sul piano etico un codice deontologico che assicuri la responsabilità professionale degli
sviluppatori e di coloro che intervengono nel processo di integrazione e applicazione dei
dispositivi di automazione appare necessario e in linea con le forme di regolazione delle
expertise peritali e di consulenza di cui ci si avvale in via endoprocedimentale. Ancora la
estensione delle garanzie processuali massime – in tal senso il caso ordinamentale
italiano appare in una prospettiva comparata di sicura ispirazione – per i riti nei quali le
parti possono avvalersi (con riconoscimento nel processo) di strumenti di giustizia
predittiva deve essere assicurata con il più alto livello di tutela costituzionale.
L’autonomia del giudice a fronte della disponibilità di conoscenza induttiva derivata
dalla analisi di banche dati giurisprudenziali va assicurata sia con norme che obblighino
le giurisdizioni supreme a un set di standard comuni per il trattamento di tale
conoscenza da parte delle giurisdizioni di primo e secondo grado, sia con norme che
integrino nella argomentazione del giudice la esplicitazione della fonte da cui tale
conoscenza viene desunta. Sul piano giuridico ordinamentale dovrebbero essere
previste delle unità specializzate a livello di giurisdizioni di secondo grado – dove il
giudizio di fatto trova la sua sintesi – per la valutazione dei dispositivi di analisi delle
banche dati. Infine, la qualità dei dati e la loro tutela va prevista sul piano giuridico. Sub
condicione di anonimato del giudice, le banche dati devono rispondere a sistemi di
regolazione pubblica responsabili della sicurezza. In tal senso, andrebbe previsto in via
legislativa la disposizione nei ministeri di uffici preposti allo sviluppo reti e politiche di
26
mantenimento della sicurezza. Le garanzie di privacy dovranno essere conformi alle
norme sovranazionali in materia (GDPR).
Anche la sfera del processo – civile, penale, amministrativo, contabile – è chiamata a
confrontarsi con le implicazioni del digital turn, non soltanto per via del senso, assai
diffuso, di ineluttabile transizione verso un quadro in cui tutte le attività umane
debbono necessariamente offrirsi alla rivoluzione basata sull’inedito connubio tra
incommensurabile potenza computazionale e big data. É, infatti, incontestabile la
condizione di grave inefficienza e inefficacia della giustizia, che pone tutti gli operatori
nella posizione di dover studiare come le potenzialità dell’era digitale e, in particolare,
l’intelligenza artificiale, possano eventualmente migliorare l’attuale situazione.
In particolare, con riferimento al problema della prova, con considerazioni mirate
soprattutto sul processo penale ma estensibili, con opportune distinzioni, al processo in
generale, può essere osservato quanto segue.
L’impiego di strumenti algoritmici nella ricerca e nella formazione della prova implica
una inevitabile opacità del processo di creazione del dato probatorio.
Occorre, pertanto, per bilanciare l’asimmetria conoscitiva tra le parti del processo,
valorizzare in pieno il principio di parità delle armi.
Questa asimmetria conoscitiva, fortemente radicata nella tradizione, post-inquisitoria,
italiana e di molti altri Stati europei continentali, è inevitabilmente legata alla presenza
di una parte pubblica nell’indagine e nel processo penale. Essa rischia di essere
oltremodo amplificata dal ricorso a mezzi di ricerca della prova e mezzi di prova la cui
opacità, accentuata dall’impiego di soluzioni di machine learning o deep learning, può
sottrare completamente la prova stessa al confronto dialettico delle parti sulla sua
attendibilità. Ci trasformerebbe la “prova algoritmica” in un mezzo apoditticamente
attendibile e, quindi, il giudice, in mero annotatore di un processo di valutazione della
prova interamente assorbito dalla natura algoritmica della medesima.
Allo scopo di attuare più efficacemente le suddette considerazioni, occorre inoltre
identificare e distinguere, all’interno della “prova algoritmica”, i profili di rischio di
inattendibilità legati al piano della teoria scientifica sintetizzata nell’algoritmo e quelli
legati, invece, alla costruzione e al funzionamento dell’algoritmo stesso. Risulta evidente
dalla esperienza di alcune giurisdizioni locali statunitensi che l’impiego processuale di
strumenti di natura predittiva nasconde plurimi livelli di opacità e di rischio, dipendenti
non soltanto dalla natura digitale e automatizzata dello strumento probatorio. Infatti, il
software che confeziona il dato utilizzato con valore probatorio all’interno del processo,
innanzitutto, si basa su una teoria scientifico-probabilistica che potrebbe non rispondere
ai parametri “Daubert” i quali, trascendendo la sfera della Corte Suprema statunitense,
sono divenuti, nel tempo, una sorta di decalogo per l’ammissibilità della prova scientifica
nella maggior parte degli ordinamenti occidentali. Il primo profilo di contraddittorio
processuale deve riguardare, allora, la validità e la validazione della teoria scientifica
sottesa all’algoritmo da parte della comunità scientifica di riferimento. Il profilo
dell’opacità dell’algoritmo in cui essa viene sintetizzata rappresenta un secondo,
27
ineluttabile, tema di confronto tra le parti, in contraddittorio, davanti al giudice
imparziale.
Un altro passaggio consiste nel rivalutare la tradizionale distinzione tra fase cognitiva ed
esecutiva, in relazione all’impiego di valutazioni predittive del comportamento violento
e del rischio di recidivanza. In diretta connessione con quanto sottolineato nel punto
precedente, si osserva un crescente ricorso a strumenti algoritmici di predizione del
rischio di recidivanza e/o di comportamenti violenti (come anche nel caso State v.
Loomis già ricordato), basati su teorie bayesiane che sfruttano correlazioni ottenute
dall’analisi automatizzata di dati di varia provenienza. Come accennato, l’area geografica
di riferimento, al momento, è per lo più quella nordamericana e australiana, ma con
progressive incursioni anche in Europa (in particolare, Inghilterra e Galles). Poiché tali
strumenti predittivi si basano su teorie psico-criminologiche più o meno accettate dalla
comunità scientifica, il vaglio di cui si accennava anche supra rimane essenziale.
Altrettanto essenziale è la rivalutazione del ruolo che la prova dell’attitudine caratteriale
e psicologica può avere nel processo penale. Si tratta di un elemento certamente
rilevante nella quantificazione della pena e nella modulazione del trattamento
sanzionatorio in concreto, ma non certo nell’accertamento dei fatti oggetto del singolo
procedimento penale. In questa prospettiva, la tradizionale distinzione che vede l’Italia e
altri Paesi continentali opporsi all’idea che la valutazione caratteriale possa incidere
sull’accertamento della responsabilità per i fatti accaduti torna ad assumere grande
significato. La prova (predittiva, algoritmica, automatizzata) caratteriale può acquisire
elementi conoscitivi su come l’imputato potrebbe essere portato a comportarsi in
futuro, ma nulla dice rispetto alla responsabilità di questi rispetto ai fatti di cui è
accusato.
Sul diverso piano dell’indipendenza del giudice merita di essere preso in considerazione
attentamente l’impatto che i sistemi di open access, associati a strumenti algoritmici
predittivi, possono produrre sul piano del valore del precedente e dell’indipendenza
degli organi giudicanti. L’accesso completo e automatizzato alle decisioni giudiziarie
rappresenta un tassello del più ampio movimento per l’openness delle pubbliche
amministrazioni che in alcuni ordinamenti, come ad esempio, la Francia, è già stato
assicurato da tempo. Certamente tale strumento agevola molto i professionisti legali,
favorendo una migliore conoscenza e circolazione anche delle decisioni di merito.
Pertanto, tale esteso bacino di sentenze presenta fortissima appetibilità per chi sia
interessato a costruire, a beneficio – principale ma non esclusivo – delle law firms,
strumenti predittivi della decisione giurisdizionale. Alimentando una rete neurale con
l’insieme di tutti i precedenti, pur non vincolanti, si possono stabilire, correlazioni utili
per immaginare come il giudice si pronuncerà rispetto a una determinata questione e
all’interno del collegio che concorre a comporre.
Ciò può rappresentare, come accennato, un grande vantaggio per la strategia difensiva e
per l’allocazione delle risorse all’interno dello studio legale. Esso ha diverse ricadute
assai perniciose: 1) le correlazioni stabilite possono non essere corrette; 2) l’evoluzione
dell’interpretazione giurisprudenziale sarebbe fortemente compromessa. Il ricorso a
28
simili strumenti scoraggerebbe, infatti, il patrocinio di posizioni potenzialmente ‘non
vincenti’. Rischierebbe così di essere depotenziato l’essenziale fattore di evoluzione che
deriva dal tradizionale impegno dell’avvocatura nel promuovere nuovi paradigmi
interpretativi che, scalando la struttura delle corti, arrivano ad affermarsi come
giurisprudenza dominante, di legittimità, e talvolta, a trasformarsi in modifiche
normative; 3) anche nei sistemi continentali che non sono basati sul valore del
precedente, il diffondersi di strumenti di quantitative legal prediction può provocare un
effetto di centralizzazione del valore del precedente. Ciò può indurre il singolo giudice
persona fisica a temere conseguenze di vario genere (disciplinare, civile) per essersi
discostato, con la sua decisione, dall’esito preconizzato dallo strumento predittivo.
L’effetto potrebbe inizialmente indurre un apparentemente neutro onere suppletivo di
motivazione, per distaccarsi dal precedente, come accade negli ordinamenti di common
law, che potrebbe tuttavia progressivamente incidere sul senso di indipendenza del
giudice. Questi, infatti, potrebbe sentirsi, più o meno consciamente, indotto ad aderire
sistematicamente al risultato della predizione.
Alla luce delle suddette osservazioni, bisogna distinguere attentamente il concetto di
conoscibilità dei precetti e di prevedibilità della sanzione, essenziali a soddisfare il
moderno concetto di legalità, da quello di “prevedibilità” della decisione del giudice.
Infatti, se è vero che la più moderna concezione del principio di legalità passa per il
riconoscimento dell’essenzialità della garanzia di conoscibilità del precetto normativo da
seguire e di prevedibilità della sanzione che sarà applicata in caso di accertata
trasgressione, si deve riconoscere che lo scenario evocato dalla quantitative legal
prediction non è ispirato all’attuazione della predetta garanzia o che, quantomeno, pu
sovrapporvi effetti contrari e perniciosi.
Sempre con riferimento alla giurisdizione, centrale appare il ruolo del processo
amministrativo, destinato a divenire, ad un tempo, il luogo del sindacato sul potere
dell’amministrazione che si serve di algoritmi e il luogo dell’esame del corretto esercizio
dell’eventuale potere del sistema pubblico di regolare e conformare l’uso, da parte dei
soggetti privati, dell’intelligenza artificiale.
Sotto il primo profilo, assume particolare rilievo il sindacato sulle c.d decisioni
algoritmiche dell’amministrazione. Pur nelle comprensibili oscillazioni, la giurisprudenza
amministrativa, come sopra visto, ha già avuto modo di precisare le condizioni
fondamentali per assicurare la qualità di tali decisioni. Quel che val la pena di
sottolineare è che, ai fini della legittimità del provvedimento basato sull’utilizzazione
degli algoritmi, deve essere assicurata una piena accessibilità di questi ultimi –
assimilabili ad un concetto tecnico e non ad un concetto giuridico indeterminato – alla
loro formazione e alla loro evoluzione, anche con riferimento alla loro provenienza.
Sotto il secondo profilo, deve essere osservato che esso riguarda uno scenario ancora
lontano dall’essere realizzato. Quel che forse, in questa sede, pu essere anticipato è
che potrà costituire un utile ausilio la giurisprudenza del giudice amministrativo
sull’attività di regolazione, che richiede un supplemento di partecipazione, anche in
funzione di controllo dei soggetti interessati (c.d legalità procedurale) e sul sindacato
29
delle valutazioni tecniche. Mediante tale sindacato, difatti, potrà essere valutata con
attenzione la maggiore attendibilità delle scelte operate dall’autorità amministrativa.
11. Bibliografia
30
Ortolani, P., The impact of blockchain technologies and smart contracts on dispute
resolution: arbitration and court litigation at the crossroads, in Uniform Law Review,
2019, p. 1 ss.
Pagallo, U., The Laws of Robots, Springer, 2013
Pariser, E., The Filter Bubble: What the Internet Is Hiding from You, Penguin, 2011
Pizzetti, F. (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione,
Giappichelli, 2018
Pollicino, O., L’efficacia orizzontale dei diritti fondamentali previsti dalla Carta La
giurisprudenza della Corte di giustizia in materia di digital privacy come osservatorio
privilegiato, in Rivista di diritto dei media, 3, 2018, p. 138 ss.
Pollicino, O.-Bassini, M., The Law of the Internet between Globalisation and Localisation,
in Maduro, M.P.-Tuori, K.-Sankari, S. (eds.), Transnational Law: Rethinking European Law
and Legal Thinking, Cambridge, 2014, p. 346 ss.
Reidenberg, J. R., Lex Informatica: The Formulation of Information Policy Rules through
Technology, in 76 Texas Law Review 1997, p. 553 ss.
Sartor, G., Cognitive automata and the law: Electronic contracting and the intentionality
of software agents, in 17(4) Artificial Intelligence and Law 2009, p. 253 ss.
Savelyev, A., Contract Law 2.0: «Smart» Contracts as the Beginning of the End of Classic
Contract Law, Higher School of Economics Research Paper No. WP BRP 71/LAW/2016
Simoncini, A., L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà,
in BioLaw Journal – Rivista di BioDiritto, 1, 2019, p. 63 ss.
Sunstein, C., Republic.com 2.0, Princeton University Press, 2009
Szabo, N., Formalizing and Securing Relationships on Public Networks, in 2(9) First
Monday, 1 September 1997
Teubner, G., Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer
Softwareagenten, in 218 Archiv für die civilistische Praxis, 2018, p. 155 ss.
Teubner, G., Societal Constitutionalism: Alternative to State-Centred Constitutional
Theory? in Joerges, C.-Sand, I.-Teubner, G., Transnational Governance and
Constitutionalism, Hart, 2004
Wachter S., Mittelstadt B. and Floridi L., Why a Right to Explanation of Automated
Decision-Making Does Not Exist in the General Data Protection Regulation, in 7(2)
International Data Privacy Law, 2017, p. 76 ss.
Wagner, G., Produkthaftung für autonome Systeme, in Archiv für die civilistische Praxis
217, 2017, p. 708 ss.
12. Princìpi-guida
31
2. Divieto di discriminazione – In nessun caso, l’utilizzo dell’intelligenza artificiale
deve condurre a forme ingiustificate di discriminazione diretta e indiretta,
specialmente quando basata su caratteristiche quali la razza, il colore, la lingua, la
religione o le convinzioni, la nazionalità o l’origine nazionale o etnica, nonché
l’ascendenza, l’età, la disabilità, il sesso, l’identità di genere, l’orientamento
sessuale.
32
8. Pubblica amministrazione – L’utilizzo di sistemi di intelligenza artificiale da parte
della Pubblica amministrazione non deve mirare soltanto a esigenze di efficienza
dell’attività amministrativa, ma essere strumento attraverso cui migliorare i
processi amministrativi e interfacciarsi con l’individuo nel rispetto dei principi di
legalità, trasparenza e correttezza.
11. Smart contracts e tecnologia blockchain - Non corrisponde al vero che il codice si
sostituirà al diritto; il diritto continuerà ad essere applicabile. Eventuali falle nei
sistemi operativi potrebbero agevolare fraudolente manomissioni da parte di
soggetti terzi, che richiederebbero l’applicazione delle norme sulla responsabilità.
Inoltre, non può escludersi che uno smart contract violi norme imperative o che
venga concluso da un soggetto incapace di agire.
33
14. Mercati - I processi decisionali algoritmici assumono rilievo nel contesto dei mercati
attraverso la pratica del c.d. “high-frequency trading” (HFT). La pericolosità dell’HFT
è testimoniata da interventi normativi volti a porre un freno alle relative attività
speculative e a garantire una certa trasparenza con riferimento alle modalità
operative. Sotto questi profili, deve essere valutata con attenzione la revisione della
direttiva europea, c.d. MiFID II (Markets in Financial Instruments Directive) e
ulteriori regolamenti attuativi, che obbligano gli high frequency traders a registrarsi
come imprese di investimento e a rendere pubblici i loro algoritmi, fornendo
garanzie sull’attendibilità dei loro software.
17. Product liability - Rispetto alle nuove tecnologie, le norme di conio europeo,
contenute nella direttiva 85/374/CEE sulla responsabilità del produttore, appaiono
inadeguate poiché si riferiscono a tecnologie obsolete e non chiariscono con
precisione in quali casi un sistema operativo in grado di apprendere
autonomamente è da considerare difettoso.
34
19. Processo – L’opacità che ancora contraddistingue i sistemi di intelligenza artificiale
rischia di determinare, anche nelle applicazioni a carattere predittivo, conseguenze
pregiudizievoli in ambito processuale, dove il principio della parità delle armi e il
rispetto dei diritti fondamentali devono continuare a operare come nucleo
inalienabile.
35