Il 0% ha trovato utile questo documento (0 voti)
14 visualizzazioni35 pagine

AIdiritto First Online

Il documento analizza le questioni legali emergenti legate all'implementazione dei sistemi di intelligenza artificiale, evidenziando la necessità di una governance adeguata per bilanciare innovazione e protezione dei diritti fondamentali. Viene fornita una panoramica degli strumenti di soft law e delle linee guida esistenti a livello nazionale e sovranazionale, sottolineando l'importanza di un approccio antropocentrico nella regolamentazione delle nuove tecnologie. Infine, il documento propone principi giuridici per orientare lo sviluppo e l'uso dell'intelligenza artificiale nel rispetto dei valori costituzionali e dei diritti umani.

Caricato da

Antonio Baifou
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
14 visualizzazioni35 pagine

AIdiritto First Online

Il documento analizza le questioni legali emergenti legate all'implementazione dei sistemi di intelligenza artificiale, evidenziando la necessità di una governance adeguata per bilanciare innovazione e protezione dei diritti fondamentali. Viene fornita una panoramica degli strumenti di soft law e delle linee guida esistenti a livello nazionale e sovranazionale, sottolineando l'importanza di un approccio antropocentrico nella regolamentazione delle nuove tecnologie. Infine, il documento propone principi giuridici per orientare lo sviluppo e l'uso dell'intelligenza artificiale nel rispetto dei valori costituzionali e dei diritti umani.

Caricato da

Antonio Baifou
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd

AI: profili giuridici

Intelligenza artificiale: criticità emergenti e sfide per il giurista


Alessandro Pajno, Marco Bassini, Giovanni De Gregorio, Marco Macchia, Francesco Paolo Patti, Oreste
Pollicino, Serena Quattrocolo, Dario Simeoli e Pietro Sirena

ARTIFICIAL INTELLIGENCE: EMERGING PROBLEMS AND CHALLENGES FOR THE JURIST


ABSTRACT: The research aims at exploring the main legal issues triggered
by the implementation of Artificial Intelligence systems, with a view to
identifying possible solutions for regulators and lawmakers at national
and supranational level. The study moves from a comprehensive
overview covering the existing soft law instruments, the core areas
captured in academic speculation and the latest developments in case
law. It then separately addresses selected sensitive issues that should be
on public and private policymakers’ agenda, most notably: the
governance of AI; the impact of AI systems on public law; the
relationship between AI systems and private and criminal law as well as
procedural law. For each of these areas, the research analyzes how the
rise of AI systems calls into question well established legal categories
and which remedies lawmakers and regulators should take into account
to reconcile the need to foster technological developments and that of
protecting fundamental rights.

KEYWORDS: Artificial intelligence; fundamental rights; disruptive


technologies; regulation; governance

SOMMARIO: 1. Premessa – 2. Dalla società dell’informazione alla società dell’algoritmo – 3. Gli


strumenti di soft law – 4. L’elaborazione dottrinale di fronte alla società algoritmica – 5.


Alessandro Pajno, Presidente Emerito del Consiglio di Stato e LUISS Guido Carli. Mail:
[email protected]; Marco Bassini, assegnista di ricerca in diritto costituzionale, Università Bocconi.
Mail: [email protected]; Giovanni De Gregorio, PhD, Università degli Studi di Milano-
Bicocca e Academic Fellow, Università Bocconi. Mail: [email protected]; Marco
Macchia, Professore Associato di Diritto amministrativo; Tor Vergata Università degli Studi di
Roma. Mail: [email protected]; Francesco Paolo Patti, Professore Associato di Diritto
privato, Università Bocconi. Mail: [email protected]; Oreste Pollicino, Professore
Ordinario di Diritto costituzionale, Università Bocconi. Mail: [email protected];
Serena Quattrocolo, Professore ordinario di diritto processuale penale e Direttore DIGSPES,
Università del Piemonte Orientale. Mail: [email protected]; Dario Simeoli, Consiglio di
Stato. Mail: [email protected]; Pietro Sirena, Professore Ordinario di Diritto
privato e Dean School of law, Università Bocconi. Mail: [email protected].
L’elaborazione giurisprudenziale di fronte alla società algoritmica – 6. Pars construens: per una
governance dell’intelligenza artificiale – 7. Intelligenza artificiale e diritto pubblico – 8.
Intelligenza artificiale e diritto civile – 9. Intelligenza artificiale e diritto penale – 10. Intelligenza
artificiale e processo – 11. Bibliografia – 12. Princìpi-guida

1. Premessa

I
l presente contributo nasce dal desiderio della Fondazione Leonardo - Civiltà
delle Macchine di approfondire lo studio dei moderni sistemi di intelligenza
artificiale e delle relative implicazioni anche da una prospettiva giuridica.
L’impegno che si intende profondere mira a stimolare la comunità scientifica e, più in
generale, gli stakeholders e gli attori istituzionali, a una meditata presa di coscienza sulle
conseguenze che derivano dalla diffusione di nuove tecnologie su larga scala che offrono
inedite opportunità ai cittadini, alle imprese e alle pubbliche amministrazioni ma al
contempo, ove non adeguatamente governate, possono dare origine a rischi per i diritti
e le libertà fondamentali.
Si impone, altresì, la necessità di assicurare che il progresso tecnologico si svolga in
armonia con le esigenze di tutela individuali e collettive, nel rispetto di una dimensione
antropocentrica. Occorre così delineare le modalità di intervento che minimizzino le
esternalità negative sullo sviluppo delle nuove tecnologie garantendo al contempo la
salvaguardia del nucleo duro dei diritti fondamentali. Con il presente documento si è
cercato di effettuare una mappatura dei tentativi sinora condotti a titolo sia di soft law,
sia di hard law, in campo giurisprudenziale e in ambito dottrinale, per offrire un congruo
inquadramento giuridico dell’intelligenza artificiale. Si è cercato altresì di illustrare quali
principi dovrebbero orientare e guidare i prossimi sviluppi. Svolta una mappatura
preliminare, infatti, il documento procede secondo una logica de jure condendo,
effettuando una rassegna di problematiche attraverso ideali carotaggi entro i vari settori
del diritto che appaiono attinti dalle innovazioni tecnologiche di cui si discute.

2. Dalla società dell’informazione alla società dell’algoritmo

L’emersione di tecnologie caratterizzate dall’impiego di sistemi di intelligenza artificiale


ha inaugurato una nuova stagione di dibattito tra soggetti pubblici e privati in merito alle
principali questioni etiche, sociali e giuridiche attorno all’impiego e alle conseguenze
relative all’impiego di tali tecnologie. Università, governi e imprese sono soltanto tre dei
centri nevralgici che hanno dimostrato uno spiccato interesse per il tema
dell’automazione con il fine di presentarsi preparati al nuovo cambio di paradigma che
può essere descritto come un’evoluzione della società dell’informazione in quella
dell’algoritmo. L’intelligenza artificiale è ormai pronta per fare il suo ingresso massivo
nella società, provocando un conseguente bisogno di riadattare concetti e categorie
tradizionali al nuovo modello sociale governato dall’automazione. Una tale diffusa
attenzione al tema dell’intelligenza artificiale deriva non solo dai numerosi risvolti
2
concernenti l’impiego di tali tecnologie in una pluralità di settori distinti ma anche da
un’evidente, e più generale, dicotomia che descrive la relazione tra uomo e macchina.
Volendo ricorrere a un parallelismo con la dimensione digitale, l’intelligenza artificiale
sembra esprimere la stessa capacità di mettere in discussione categorie preesistenti
(disruptiveness) specialmente se si osservano le pretese anarchiche sviluppate
all’indomani della diffusione della rete negli anni ’90 (Barlow, 1996; Johnson and Post,
1997). La pretesa anarchica può, infatti, collegarsi in senso lato alla non prevedibilità
degli esiti dell’utilizzo di sistemi di intelligenza artificiale in funzione o di bias in fase di
elaborazione di dati alla fonte (garbage in, garbage out) ovvero in funzione di capacità di
apprendimento autonomo (machine learning). In questo caso, tuttavia, non si assiste
all’impossibilità di applicare alla dimensione digitale le regole del mondo atomico, ma
semplicemente all’esigenza di ripartire in maniera ottimale anche sotto un profilo
economico i rischi connessi alla produzione di un evento lesivo o di decisioni che
possano avere un effetto sui diritti degli individui.
La lezione di Lessig in merito alla possibilità di regolamentare lo spazio digitale ha
mostrato che il diritto fatica a imporre il rispetto delle sue regole nella tecnologia e
dunque le sue finalità non paiono trovare soddisfazione “in autonomia”. La stessa
lezione di Lessing ha mostrato, però, che è sempre possibile ricorrere a una regolazione
che incida sull’architettura della tecnologia, dato che il code si nutre e si alimenta di
fattori anche diversi dal diritto, tra cui il suo design, le norme sociali e le regole del
mercato (Lessig, 1996). Si deve dunque prendere atto che le norme giuridiche
necessitano di essere calate sulla peculiarità delle tecnologie, al fine di preservare la
propria funzione prescrittiva. Il diritto può quindi rimarcare i suoi fini tramite una
regolazione dell’architettura della tecnologia (Reidenberg, 1997). Applicando queste
considerazioni nel campo dell’intelligenza artificiale, ne conseguirebbe una
differenziazione tra le varie forme di intelligenza artificiale basata su una selezione di
quelle “più virtuose” in funzione di un minor livello di rischio per l’individuo.
Tali considerazioni, tuttavia, non devono spingere a cadere nell’errore di ritenere, per
analogia con le caratteristiche di una disruptive technology quale Internet, che
l’intelligenza artificiale abbia raggiunto uno stadio di maturità tecnologica. Al contrario,
la situazione odierna è solo l’inizio, se non una timida anticipazione, di un fenomeno le
cui implicazioni non sono ancora del tutto misurabili e considerabili in modo esaustivo.
Gli obiettivi del documento sono diversi. Oltre a sollecitare un dibattito sul codice etico
dell’intelligenza artificiale e passare in rassegna i casi più critici in Italia e all’estero, il
manifesto ambisce a individuare un primo nucleo di principi giuridici che devono essere
rispettati nella regolamentazione delle nuove tecnologie. Detti principi traducono alcune
scelte etiche in disposizioni dell’ordinamento, offrendo spunti per la configurazione di
uno statuto giuridico della produzione e dell’utilizzazione dell’intelligenza artificiale nel
rispetto dei valori espressi dalla Costituzione, nonché dalle fonti internazionali ed
europee.

3
3. Gli strumenti di soft law

Il carattere ancora acerbo del dibattito, e allo stesso tempo la sua rilevanza, vengono
sottolineate dalla elaborazione di carte e strumenti a livello sovranazionale che si sono
susseguiti nel corso degli ultimi due anni al fine di fornire le prime linee guida
sull’intelligenza artificiale da almeno due punti di vista: la governance e la tutela dei
diritti.
All’interno della prima categoria si possono certamente menzionare i principi
sull’intelligenza artificiale emanati dall’Organizzazione per la cooperazione e lo sviluppo
economico (OCSE) nel marzo 2019. La raccomandazione costituisce il primo standard
intergovernativo sull’intelligenza artificiale e mira a perseguire diversi scopi: tra di essi,
la promozione della ricerca e nello sviluppo dell’automazione, di un ecosistema digitale
per l'intelligenza artificiale nonché la cooperazione internazionale in questo campo. Il
punto centrale del documento consiste nel bilanciamento tra l’innovazione, che riveste
un ruolo cruciale per lo sviluppo di nuovi servizi intelligenti, e la gestione responsabile di
tali tecnologie che si concretizza nel rispetto dei diritti umani e dei valori democratici.
Più in particolare, tale documento identifica cinque linee guida complementari ai fini di
una gestione responsabile dell’intelligenza artificiale: crescita inclusiva, lo sviluppo
sostenibile e il benessere; la salvaguardia dell’equità e di valori parametrati sull'uomo; la
trasparenza e comprensibilità; la robustezza, sicurezza e affidabilità; la responsabilità.
A livello regionale, il rapporto pubblicato nel giugno 2018 dal Gruppo di esperti europeo
sull’intelligenza artificiale costituisce un punto di riferimento per i prossimi passi. In
particolare, il documento in questione sottolinea il ruolo di queste nuove tecnologie nel
plasmare il tessuto sociale e costituire un fattore cruciale per la crescita dell’Europa. Allo
stesso tempo, gli effetti positivi derivanti dallo sviluppo e diffusione di tali tecnologie
vengono mitigati dai rischi che possono derivare dall’adozione di un approccio tecno-
centrico, nel quale l’uomo viene relegato in una dimensione marginale rispetto alla
tecnologia. Ed è qui che il documento sottolinea come le tecnologie basate su sistemi di
intelligenza artificiale debbano conformarsi a un approccio antropocentrico. Tali
tecnologie dovrebbero, infatti, costituire non solo un obiettivo dettato dall’innovazione
ma anche un mezzo per aumentare il benessere umano. Da una tale ricostruzione deriva
che siffatte tecnologie devono, da un lato, essere programmate nel rispetto dei diritti
fondamentali, della normativa applicabile e dei principi e dei valori di base, dall’altro,
assicurare affidabilità dal punto di vista tecnico, dal punto di vista della sicurezza e per
capacità di essere utilizzate in modo trasparente dalla società.
Sotto un altro punto di vista, la Carta etica sull’uso dell’intelligenze artificiale nei sistemi
giudiziari adottata nel contesto del Consiglio d’Europa dall’European Commission for the
Efficiency of Justice (CEPEJ) nel dicembre del 2018 si occupa di definire i principi che i
responsabili politici, i legislatori e i professionisti dovrebbero adottare nell’affrontare il
rapido sviluppo dell’intelligenza artificiale nel campo della giustizia e, più in particolare,
nei sistemi giudiziari nazionali. Similmente al report del gruppo di esperti europei, il
CEPEJ sottolinea l’importanza dell’applicazione di tali tecnologie nel campo della
4
giustizia al fine del miglioramento dell’efficienza e della qualità dei processi. Allo stesso
tempo, viene messo in luce come l’implementazione di tali tecnologie debba essere
attuata in modo responsabile, nel rispetto dei diritti fondamentali garantiti, in
particolare nella Convenzione europea sul Diritti umani (CEDU) e nella Convenzione del
Consiglio d’Europa sulla protezione dei dati personali. Tra i suddetti principi occorre
richiamare in primis il principio del rispetto dei diritti fondamentali, che mira ad
assicurare che strumenti e servizi di intelligenza artificiale siano progettati e attuati
secondo modalità idonee a salvaguardare la tutela di tali diritti. Da un tale approccio
costituzionale derivano il principio di non discriminazione che mira a prevenire
specificamente lo sviluppo o l'intensificazione di qualsiasi discriminazione tra individui o
gruppi di individui; il principio di qualità e sicurezza che richiede di ricorrere a fonti
certificate e dati immateriali con modelli concepiti in modo multidisciplinare in un
ambiente tecnologico sicuro; il principio di trasparenza, imparzialità ed equità atto a
rendere i metodi di trattamento dei dati accessibili e comprensibili, autorizzando audit
esterni; e il principio di controllo finalizzato a garantire che gli individui siano attori
informati e in controllo delle loro scelte.
A livello dell’Unione europea, il Parlamento europeo si è occupato di fornire le prime
linee guida in merito alla responsabilità civile nel settore della robotica già nel febbraio
2017. In particolare, la risoluzione del Parlamento fornisce diverse proposte in materia
di responsabilità per danno causato da un robot come l’applicazione degli istituti della
responsabilità oggettiva, la gestione dei rischi, l’istituzione di un regime di assicurazione
obbligatorio nonché l’istituzione di uno status giuridico ad hoc consistente in una
personalità elettronica, che permetta di ritenere i robot più sofisticati responsabili delle
proprie azioni dannose. Più di recente, la Commissione europea ha adottato una
Comunicazione su “L’intelligenza artificiale per l’Europa”, documento non vincolante che
sintetizza la strategia europea rispetto al fenomeno dell’automazione. Tale
comunicazione mira a dare impulso alla capacità tecnologica e industriale dell’UE e
all’adozione dell’intelligenza artificiale in tutti i settori economici, sia privati che pubblici,
attraverso investimenti in ricerca e innovazione e un migliore accesso ai dati. Essa è
volta, altresì, a facilitare la preparazione ai cambiamenti socio-economici apportati
dall’intelligenza artificiale, incoraggiando la modernizzazione dell’istruzione e dei sistemi
di formazione, sostenendo il talento, anticipando i cambiamenti nel mercato del lavoro e
fornendo appoggio alle transizioni nel mercato del lavoro e all’adeguamento dei sistemi
di protezione sociale. Tale strategia viene radicata in un quadro etico e giuridico
adeguato, basato sui valori dell’Unione e coerente con la Carta dei diritti fondamentali
dell’UE.
Le iniziative di soft law prese in considerazione rivelano alcune tendenze comuni.
Sottesa a larga parte dei documenti in parola è una generale preoccupazione affinché lo
sviluppo dei moderni sistemi di intelligenza artificiale e delle tecnologie algoritmiche si
svolga in armonia con la tutela dei diritti e delle libertà individuali. Vi è una diffusa
percezione circa gli innumerevoli vantaggi che l’implementazione di queste tecnologie
può recare entro una varietà di settori (dalla giustizia alla pubblica amministrazione,
5
passando per l’esecuzione degli impegni contrattuali). Ad essa si accompagna la ferma
consapevolezza in ordine alla necessità di conservare una funzionalizzazione dei loro
utilizzi alla salvaguardia della dignità umana e dei diritti.
Questa preoccupazione si percepisce soprattutto nell’insistenza di alcuni documenti nel
declinare principi che possano offrire un adeguato margine di manovra a legislatori e
regolatori, costituendo al contempo importanti indicazioni di policy.
Dal punto di vista della governance, sembra proporsi un approccio multistakeholder,
fondato sul coinvolgimento dei diversi soggetti che rivestono un ruolo cruciale nel
funzionamento della tecnologia. Non possono essere trascurati i dubbi derivanti
dall’applicazione di un tale approccio i cui effetti hanno rivelato in altri settori risultati
insoddisfacenti specialmente quando si concretizzano in forme di concertazione quali,
ad esempio, la co-regulation o la self-regulation. Alcuni esempi possono essere
riscontrati nei codici di condotta relativi a hate speech e alla disinformazione online,
dove la provenienza da parte degli attori non istituzionali delle regole segna il confine
della loro efficacia. Esistono forme di concertazione tra parti private e soggetti pubblici
che permettono a questi ultimi di definire con cognizione di causa e in maniera
rispondente alla sensibilità dei primi standard, regole di condotta, principi e linee guida.
L’adozione di un approccio bottom-up non esclude la validità di possibili diverse
iniziative. Tanto più tecnico sarà il loro contenuto, tanto più potranno rivelarsi efficaci.
Viceversa, se il contenuto corrisponde a scelte di policy, sarà più difficile immaginarne
l’efficacia e pretenderne la condivisione e il supporto da parte di attori pubblici-
istituzionali.
Un ulteriore profilo che emerge chiaramente dai primi tentativi di inquadrare il tema
dell’intelligenza artificiale riguarda la potenziale codificazione dei diritti digitali. Tale
tendenza verso la positivizzazione di nuovi interessi trova spazio alla luce dell’esigenza di
coniare un nuovo statuto della persona a fronte dell’erompere di poteri privati. Tracce di
questo processo emergono già dalla definizione di un diritto alla spiegazione in seno al
Regolamento Generale sulla Protezione dei Dati Personali (“GDPR”) nell’ambito della
decisione algoritmica automatizzata. Eppure, l’art. 22 coglie soltanto una porzione, se
non una fase embrionale, di sviluppo di queste situazioni giuridiche. Giova osservare che
lo stesso GDPR potrebbe offrire una chiave di lettura su come approntare strumenti a
protezione degli individui nel rapporto non tra pubblico e privato, ma tra soggetti che
agiscono meramente come controparti di un rapporto orizzontale tramite una
amministrativizzazione della protezione dati, ossia attraverso la definizione di alcune
misure che rispondono all’obiettivo di assicurare maggiore accountability e trasparenza
da parte di chi utilizzi IA.
Si pone dunque il tema della possibile cristallizzazione di nuovi diritti sostanziali e nuovi
diritti procedurali, che per sono accomuna dalla “orizzontalità”, ossia dal
riconoscimento in capo all’individuo nel rapporto con l’utilizzatore di intelligenza
artificiale che agisce come soggetto in posizione non necessariamente autoritativa, non
escludendo la possibilità che ciò avvenga anche da parte di autorità pubbliche.

6
Tali diritti, tuttavia, necessitano di un sistema affidabile di enforcement in assenza del
quale resterebbero soltanto delle prescrizioni senza alcuna pretesa di vincolatività. Sotto
tale profilo, meno indagata rispetto alle precedenti questioni, ma allo stesso tempo
cruciale per assicurare la tutela dei diritti, è la questione riguardante quali soggetti
possano assicurare un enforcement effettivo dei nuovi diritti digitali. In particolare,
l’approccio basato su una pluralità di stakeholder sembra essere la strada intrapresa. Si
può osservare come tra i canali privilegiati da parte del GDPR per garantire il rispetto dei
principi sulla data protection vi siano codici di condotta e meccanismi di certificazione,
che naturalmente per un verso sono frutto di forme di multistakholderism, ma
presuppongono al contempo il ruolo di un soggetto pubblico o comunque investito di
una funzione pubblicistica. Questo soggetto potrebbe essere congegnato alla stregua di
un ente certificatore che a livello sovranazionale, onde definire uno standard comune,
neutrale alle specifiche sensibilità costituzionali, intervenga specificamente sugli
standard, riconoscendo quali siano quelli idonei a garantire la tutela dell’individuo
rispetto all’uso dell’intelligenza artificiale.
Nella medesima direzione, ma sul piano degli attori pubblici, merita senz’altro
attenzione l’esempio pionieristico del Codice dell’Amministrazione Digitale (d.lgs. n.
82/2005), che ha costituito un primo esempio di sistematizzazione delle norme
concernenti la digitalizzazione della pubblica amministrazione nei rapporti sia con i
cittadini sia con le imprese e che da ultimo è parso offrire spazi sempre maggiori al
concetto di “cittadinanza digitale”.
In tale quadro d’insieme, le iniziative finora susseguitesi nei vari ambiti, e in modo
particolare in quello giuridico-regolatorio, documentano una frammentarietà nella
declinazione di linee guida tendenzialmente settoriali e la carenza di interventi di
carattere organico sotto forma di hard law. Si è ancora in una fase embrionale
caratterizzata da interventi sparsi che declinano perlopiù principi a tutela del cittadino,
ma che non sembrano ispirati da una ratio omogenea e unificante.
Tale frammentazione porta a riflettere sul ruolo del giurista nella società dell’algoritmo,
funzione che assume una rilevanza fondamentale come avviene in tutte le fasi di
transizione tra nuovi paradigmi che comportano cambiamenti radicali dello status quo.
Tuttavia, la trasformazione del giurista non è solo dovuta a un adattamento delle
capacità di affrontare le sfide dell’intelligenza artificiale utilizzando strumenti tradizionali
operando nel rispetto del principio di rule of law, ma è anche legata al supporto che
proprio le tecnologie di intelligenza artificiale promettono di fornire come ausilio alle
attività del giurista. Ne consegue che le nuove tecnologie dell’automazione costituiscono
non solo una sfida per il giurista, ma anche un’opportunità nella gestione efficiente dei
propri compiti confermando il duplice binario (non necessariamente “oppositivo”) che si
sta delineando tra uomo e macchina.
In chiave di tecnica normativa, si deve porre un’ulteriore questione metodologica in
ordine alla modalità che consenta di raggiungere più efficacemente gli obiettivi
perseguiti da legislatori e regolatori. Sul piano delle fonti, infatti, un processo di
deregulation e delegificazione in favore dell’intervento di atti normativi di rango
7
secondario, entro un quadro opportunamente definito dal legislatore, appare opzione
preferibile alla luce della rapidità dei mutamenti tecnologici e della necessità di disporre
di set di norme talvolta connaturate anche da un elevato contenuto tecnico che più
difficilmente potrebbero derivare dal procedimento legislativo ordinario.
Da ultimo, occorre che le autorità nazionali si confrontino con l’esperienza di alcuni
paesi baltici, notoriamente più avanzati nelle politiche dell’innovazione e in particolare
nello sviluppo del digitale. L’Estonia, per esempio, ha da tempo intrapreso politiche
all’avanguardia in materia, elaborando sia progetti per il riconoscimento di personalità
giuridica alle macchine sia proposte per l’introduzione di “robot magistrati” destinati a
occuparsi di cause di minore entità. Occorre, pertanto, allargare lo sguardo a questi
ordinamenti onde comprendere se le opzioni prescelte anche in campo normativo
possano prestarsi a una circolazione e a un eventuale condivisione su più larga scala,
costituendo la “cartina di tornasole” della varietà dei profili al centro del dibattito.

4. L’elaborazione dottrinale di fronte alla società algoritmica

Lo sviluppo dei primi strumenti di soft law non ha frenato le riflessioni in campo
dottrinale, destinate a confrontarsi con la difficoltà (comune alla giurisprudenza) di
sussumere entro fattispecie pensate prima dell’avvento della società algoritmica
fenomeni che paiono discostarsi da paradigmi consolidati. La letteratura giuridica, pur
incline da decenni a confrontarsi con l’emersione del fattore tecnologico e con le sue
conseguenze (Costanzo, 2012) sotto una moltitudine di prospettive – filosofia del diritto,
diritto pubblico, diritto privato, diritto penale, solo per citarne alcune – appare
attraversare una fase ancora embrionale. Il formante giurisprudenziale non manca di
scontare analoghe criticità Tuttavia presenta una propria specificità: la necessità di
risolvere un caso concreto in ossequio al principio che esige la soggezione dei giudici
soltanto alla legge, e dunque entro il perimetro dello strumentario giuridico esistente.
Il contributo tanto della dottrina quanto della giurisprudenza ha senz’altro risentito, in
parte, delle analoghe problematiche che si sono poste già in passato con riferimento
all’ambito della robotica, pur nella consapevolezza della non piena sovrapponibilità delle
categorie in parola. Le caratterizzazioni dell’intelligenza artificiale, in particolare le
proprietà che ne descrivono le capacità di machine learning, suggeriscono tuttavia una
considerazione peculiare e specifica di questo fenomeno.
Sul piano dottrinale, uno dei principali interrogativi concerne la possibilità di ipotizzare
un riconoscimento di soggettività giuridica in capo ai sistemi di intelligenza artificiale
(Sartor, 2009; Pagallo, 2013). Si tratta del presupposto per imputare loro non solo il
riconoscimento di diritti (e doveri) ma altresì la responsabilità per possibili eventi lesivi
derivanti dal loro funzionamento. Tale problematica, tra le più cogenti all’attenzione dei
commentatori (Sartor, 2009), si trova al centro di un diffuso dibattito alimentato
soprattutto dalla possibilità che i sistemi di intelligenza artificiale elaborino e attuino
comportamenti che deviano dagli input ricevuti da programmatori e/o utilizzatori. Come
si segnalerà oltre, le riflessioni dei commentatori si sono appuntate sull’esame dei vari
8
paradigmi di responsabilità civile codificati dall’ordinamento giuridico, al fine di
appurare la possibilità di estenderne analogicamente l’applicazione anche all’intelligenza
artificiale. In ambito nordamericano, si è addirittura assistito alla teorizzazione, da parte
di un autore (Hallevy, 2010), di possibili forme di responsabilità penale della macchina
fondate sull’implicita attribuzione di personalità giuridica, anticamera di una sostanziale
assimilazione tra agenti umani e agenti robotici. Questo modello postula la
differenziazione tra tre possibili scenari: (i) la perpetration through another, ove il
sistema di intelligenza artificiale è mero esecutore materiale, privo di capacità cognitiva
e dunque volitiva, di una condotta istigata e voluta del programmatore o dell’utente; in
tali circostanze, l’intelligenza artificiale sarebbe paragonabile a un soggetto incapace e
pertanto non potrebbe subire alcuna imputazione di responsabilità; (ii) la natural
probable consequence, ove programmatori e utenti sono considerati penalmente
responsabili di un reato commesso dall’intelligenza artificiale come conseguenza
naturale e probabile di un loro comportamento doloso o colposo, per esempio di un
errore nella programmazione o nell’uso; (iii) la direct liability, ove si presuppone che
l’intelligenza artificiale sia dotata di mens rea e dunque compatibile con un’attribuzione
di responsabilità per una condotta da essa materialmente eseguita. A tale scenario viene
equiparata l’ipotesi di aberratio delicti in cui, programmata per commettere un
determinato reato, l’intelligenza artificiale, deviando dagli input di programmatori o
utenti, ne commetta uno di diverso tipo.
Nel terzo dei paradigmi descritti, Hallevy ipotizza una possibile applicazione di pene
costruite secondo un principio di equivalenza tra macchina e umano. Si tratterebbe della
cancellazione del software volta a neutralizzare il sistema oppure della sua
disattivazione per un periodo di tempo prestabilito onde favorirne una rieducazione.
All’esame della dottrina si pongono ulteriori profili che indirettamente riflettono la
difficoltà di conciliare le categorie giuridiche esistenti e il carattere innovativo della
tecnologia. Tra le altre, la possibilità di realizzare una perfetta sostituzione tra automi o
sistemi di intelligenza artificiale e agenti umani nell’espletamento di attività lavorative,
con le evidenti ripercussioni che questa opzione potrebbe comportare nell’ambito di
svariate professioni (Estlund, 2018). Nel campo della giustizia e dell’assistenza legale, le
prime applicazioni in via sperimentale di tecniche algoritmiche sollevano diversi
interrogativi, non circoscritti alla effettiva funzionalità di questi sistemi.
Da ultimo, la dottrina ha esplorato approfonditamente, soprattutto nel corso degli anni
più recenti, i profili inerenti alla protezione dei dati personali, al cospetto di una
importante riforma del quadro legislativo vigente a livello europeo, che ha visto l’entrata
in vigore del già ricordato GDPR (Pizzetti, 2018). Tale atto delinea un primo sistema di
protezioni rispetto all’individuo i cui dati costituiscono oggetto di un processo
decisionale automatizzato (Wachter-Mittelstadt-Floridi, 2017). Non è un caso che i
principi di privacy by design e by default siano stati richiamati come guida per il titolare
del trattamento al fine di assicurare il rispetto dei dati personali attraverso la
predisposizione di misure tecniche e organizzative adeguate, volte ad attuare in modo
efficace i principi di protezione dei dati (by design), nonché a garantire che siano trattati,
9
per impostazione predefinita, solo i dati personali necessari per ogni specifica finalità del
trattamento (by default).
Come osservato, però, queste ricerche dovrebbero emanciparsi dall’ambito specifico
della protezione dati. Lo studio sulle dinamiche di controllo della persona sui processi
automatizzati andrebbe collocato entro un contesto di più ampio respiro, che permetta
di apprezzarne le implicazioni (per esempio, nel contesto relativo a decisioni
amministrative o provvedimenti giurisdizionali automatizzati).

5. La giurisprudenza di fronte alla società algoritmica

La giurisprudenza non ha fatto mancare alcune prime, embrionali indicazioni al


confronto con casi concreti che hanno riguardato l’utilizzo di sistemi di intelligenza
artificiale.
L’attitudine al confronto con l’innovazione non costituisce di certo una novità per i
giudici., Essi, infatti sono gli attori istituzionali più prossimi “per vocazione” alle
situazioni in cui si danno nuove esigenze e istanze di tutela per effetto del mutato
contesto tecnologico e sociale.
Le prime indicazioni giurisprudenziali si sono avute negli Stati Uniti a fronte della
diffusione dei primi dispositivi di natura robotica e del verificarsi di alcuni incidenti
produttivi di eventi dannosi e talvolta letali (su cui Bassini-Pollicino-Liguori, 2018).
Pur in carenza di un vero e proprio leading case da parte della Corte suprema, i temi al
centro della giurisprudenza più risalente in materia concernono in particolare la
definizione dello standard di diligenza richiesto ai produttori di componenti robotiche e
ai relativi utilizzatori. Alcune delle pronunce si sono focalizzate sull’esistenza di un nesso
di causalità che rendessero addebitabili all’utilizzatore ovvero al produttore le
conseguenze dannose degli incidenti. In tale prospettiva era analizzato il contributo
causale offerto da eventuali comportamenti negligenti da parte delle vittime. Altri
precedenti in questa direzione hanno affrontato il tema della separabilità tra le
componenti difettose e i macchinari nei quali queste ultime venivano incorporate.
Indicazioni di significativa importanza si sono intraviste anche nella giurisprudenza della
Corte di giustizia dell’Unione europea, che si è confrontata con l’applicazione di sistemi
di filtraggio automatici sui flussi di comunicazione da parte delle piattaforme digitali e
sull’esistenza di una responsabilità di questi operatori per eventuali illeciti commessi
dagli utenti terzi a mezzo dei servizi (specialmente nelle cause C-70/10, Scarlet c. Sabam
e C-360/10, Sabam c. Netlog; oltre che in cause riunite C-236, 237 e 238/08, Google
France).
A differenza delle decisioni incentrate sulla robotica, che hanno spesso fatto ricorso alle
categorie della responsabilità da prodotto difettoso in relazione a eventi dannosi, un
filone giurisprudenziale più recente cerca di conciliare l’utilizzo di sistemi algoritmici con,
da un lato, l’amministrazione della giustizia e, dall’altro, gli eventuali provvedimenti
della pubblica amministrazione.

10
Le pronunce paradigmatiche in questo ambito risalgono, per un verso, al Consiglio di
Stato italiano (sez. VI, 8 aprile 2019, n. 2270) e al Conseil Constitutionnel francese
(sentenza n. 2018-765 DC del 12 giugno 2018) e, per altro, alla Corte Suprema del
Wisconsin (Loomis v. Wysconsin, 881 N.W.2d 749 (Wis. 2016), certiorari negato con
sentenza 137 S.Ct. 2290, 2017).
Da un lato, il Consiglio di Stato si è espresso, nello scorso aprile, in una vicenda originata
dall’utilizzo da parte del MIUR di un sistema algoritmico per la definizione delle
assegnazioni del personale docente della scuola secondaria. Il supremo organo di
giustizia amministrativa ha chiarito che la regola tecnica che governa ciascun algoritmo
resta pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla
macchina, per essere poi (solo) applicata da quest’ultima. Pertanto, la “regola
algoritmica” deve rispettare alcuni requisiti: (i) ancorché declinata in forma matematica,
ha piena valenza giuridica e amministrativa, e come tale deve soggiacere ai principi di
pubblicità e trasparenza, di ragionevolezza e di proporzionalità; (ii) non può lasciare
spazi applicativi discrezionali ma deve prevedere con ragionevolezza una soluzione
definita per tutti i casi possibili, cosicché la discrezionalità amministrativa, non
demandabile al software, possa rintracciarsi al momento dell’elaborazione dello
strumento digitale; (iii) presuppone che sia l’amministrazione a compiere un ruolo ex
ante di mediazione e composizione di interessi, anche per mezzo di costanti test,
aggiornamenti e modalità di perfezionamento dell’algoritmo; (iv) deve contemplare la
possibilità che sia il giudice a svolgere, sul piano “umano”, valutazioni e accertamenti
fatti direttamente in via automatica, per permettergli di apprezzare la correttezza del
processo automatizzato in tutte le sue componenti.
La decisione del Consiglio di Stato ha fatto seguito a una serie di ricorsi sui quali si era
precedentemente pronunciato il Tribunale Amministrativo Regionale del Lazio, con
sentenze non sempre lineari, frutto della difficoltà di inquadrare univocamente una
materia da ricollocarsi entro le categorie esistenti (tra le altre, Tar Lazio – Roma, sez. III
bis, 22 marzo 2017, n. 3769; 10 settembre 2018, n. 9227; 12 marzo 2019, n. 3238; 27
maggio 2019 n. 6606). In particolare, ha suscitato dibattito la possibilità per un
algoritmo, anche laddove “istruito” da un agente umano e dunque pre-impostato in
base a un sistema assiologico, di assicurare il rispetto delle garanzie procedimentali
contemplate dalla legge sul procedimento amministrativo.
In Francia, una decisione del Conseil Constitutionnel del 2018 si è pronunciata sulla
legittimità di una norma che ampliava la possibilità per la pubblica amministrazione di
ricorrere (seppure a titolo di eccezione) a decisioni in grado di produrre effetti giuridici
sugli individui fondate su un trattamento automatico di dati personali. La stessa
disposizione legittimava decisioni automatizzate nel caso in cui (i) l’attività algoritmica
non riguardasse dati sensibili, (ii) fosse possibile una via di ricorso amministrativa e (iii)
fossero fornite adeguate informazioni in relazione all’utilizzo di algoritmi. Di tale norma
veniva dedotto un possibile conflitto con la distribuzione dei poteri esecutivi prevista
dall’art. 21 della Costituzione, soprattutto in relazione alle capacità di
autoapprendimento degli algoritmi che avrebbero potuto determinare l’applicazione di
11
regole differenti da quelle pre-impostate. Il Conseil ha per escluso l’esistenza di profili
di incostituzionalità, ritenendo che fossero state osservate tutte le garanzie necessarie
alla salvaguardia dei diritti e delle libertà degli individui. Tra queste, rientravano fattori
come: la limitazione dell’utilizzo a specifiche tipologie di decisioni, la previsione delle
ricordate condizioni legittimanti e la possibilità per l’individuo destinatario ultimo di una
decisione di ottenere una spiegazione in modalità intellegibili e dettagliate del
funzionamento del processo algoritmico.
Dall’altro lato dell’Oceano, invece, nel caso State v. Loomis, la Supreme Court del
Wisconsin ha confermato nel 2016 la decisione d’appello in un procedimento penale
conclusosi con la condanna dell’imputato in cui era stato tenuto in conto, ai fini della
recidiva, il risultato di un Presentence Investigation Report prodotto attraverso l’uso di
un software proprietario (COMPAS), il cui funzionamento risulta coperto da segreto
industriale. Tale software restituisce risk assessment sulla base sia delle informazioni
raccolte sulla base di un colloquio con l’imputato sia delle informazioni relative al suo
storico criminale. In questa pronuncia, la Corte ha ritenuto che l’utilizzo del software
non implicasse una violazione del principio del giusto processo (essendo i suoi risultati
peraltro rilevanti solo per la valutazione della recidiva e non per la decisione circa la
condanna); tuttavia, ha enunciato alcune cautele di cui tenere conto onde garantire che
il risultato ultimo sia sempre il frutto di un apprezzamento da parte di un agente umano,
che potrà eventualmente rivedere gli esiti del processo algoritmico.

6. Pars construens: per una governance dell’intelligenza artificiale

L’utilizzo di sistemi di intelligenza artificiale pone in discussione la funzionalità degli


istituti giuridici esistenti all’interno di branche disparate del diritto. In ambiti diversi,
infatti, la capacità delle norme vigenti di soddisfare le finalità di interesse pubblico
affidate loro da legislatori e regolatori, oltre che dalla pubblica amministrazione, sembra
vacillare.
Come si è ricordato nella premessa, Lessig, già descrivendo le criticità connesse alla
regolazione della rete Internet, osservava come il web rendesse precaria la capacità
delle norme giuridiche di assolvere gli obiettivi “politici” ivi sottesi. Lo studioso evocava
la necessità che legislatori e regolatori utilizzassero il diritto per regolare indirettamente
l’architettura del cyberspazio, condizionata nella sua fisionomia da vari fattori (le norme
sociali, le regole del mercato e il contesto infrastrutturale) di cui l’ideale sintesi veniva
definita come il code (Lessig, 1999). Infatti, a differenza di altre posizioni che
sostenevano l’impossibilità di una regolamentazione della rete, la posizione di Lessig è
stata supportata da diversi interventi normativi atti invece a regolarla. Ne consegue che,
dal punto di vista della governance, la domanda principale non è costituita dall’an ma
dal quantum di regolamentazione ossia da quel principio di proporzionalità che esige di
ridimensionare la portata delle regole al fine di trovare un punto di equilibrio tra
interessi confliggenti.

12
Contestualizzando tali riflessioni nel campo dell’intelligenza artificiale e astraendole a un
livello metagiuridico, il punto di equilibrio deve essere trovato tra l’uomo e la macchina
al fine di scongiurare che lo sviluppo dell’automazione porti l’uomo in una posizione di
subordinazione a una sua stessa creazione., Appare dunque necessario che, a fronte
dell’erompere dei sistemi di intelligenza artificiale, i giuristi profondano gli sforzi per
restituire un ecosistema antropocentrico, nel quale il fattore tecnologico non sovrasti e
non si imponga sui valori, primo fra tutti la dignità, su cui si incentra la tutela
dell’individuo. In tal senso, si avverte la necessità che il diritto “guidi” e “orienti” la
tecnologia, onde permetterle di percorrere binari rispettosi di un sistema assiologico di
valori riflesso nelle costituzioni degli stati moderni e nei trattati internazionali. Affinché
tale missione sia portata a compimento, però, non è sufficiente (né forse, a rigore, è
necessaria) un’opera di rivisitazione delle garanzie costituzionali dei diritti fondamentali;
occorre, invece, una puntuale verifica circa le norme dell’ordinamento positivo e la loro
perdurante abilità a riflettere alcuni principi ispiratori che ne giustificano la collocazione
all’interno del sistema delle fonti.
Il diritto deve pertanto regolare la tecnologia, così da condizionarne virtuosamente il
funzionamento, declinandolo al perseguimento delle finalità sottese all’azione di
legislatori e regolatori. Occorre tuttavia assicurare che l’intervento delle regole
giuridiche, cruciale onde scongiurare derive tecnocratiche che preludano
all’affermazione del dominio della tecnica, si concretizzi mediante modalità appropriate
che non assumano i contorni di un controllo pubblico di carattere “censorio”. Al
contrario, tali modalità dovranno saper attuare l’esigenza di certezza del diritto secondo
regole resistenti alla natura “disruptive” dell’intelligenza artificiale. La certezza del diritto
costituisce, in ultima analisi, l’obiettivo cui deve tendere l’ordinamento giuridico al
cospetto delle novità immesse dalle evoluzioni tecnologiche. La conoscenza e
l’“accessibilità” delle implicazioni derivanti dall’utilizzo di tecniche e sistemi algoritmici,
infatti, costituiscono fattori dirimenti per scelte imprenditoriali come l’adozione di un
determinato modello di business o l’implementazione di sistemi innovativi da parte delle
pubbliche amministrazioni. Queste tecnologie consegnano inedite opportunità di
sviluppo e di esercizio da parte degli individui dei diritti di cittadinanza (una cittadinanza
sempre più “digitale”). Esse recano, tuttavia, rischi e possibili insidie derivanti dalla
intrinseca difficoltà di decodificarne la fisionomia e il funzionamento secondo i
paradigmi esistenti. In questo specifico versante si avverte l’interesse dei giuristi e la
rilevanza del compito di definire regole appropriate. Con una fondamentale premessa: la
declinazione di un set di regole funzionale all’efficace ricorso a sistemi di intelligenza
artificiale non presuppone necessariamente la codificazione di una lex specialis che ne
governi il funzionamento, nutrendosi invece della valutazione a mo’ di “fitness test”
della perdurante capacità delle norme giuridiche di rispondere alla relativa ratio anche
nella loro applicazione ai sistemi di intelligenza artificiale.
Inoltre, il ruolo della rule of law costituisce un punto di riferimento cruciale per l’attività
giurisprudenziale che, in assenza di regole chiare, come si è assistito in diverse occasioni
nel caso di Internet, è naturalmente spinta a interpretare e, alle volte, manipolare il
13
diritto attraverso forme di judicial activism che ricalcano l’attività del legislatore
(Pollicino-Bassini, 2014). Pertanto, al fine di garantire il principio di separazione dei
poteri evitando non solo derive tecnocratiche ma anche eccessivi interventi
giurisprudenziali giustificati dalla necessità di colmare le lacune normative, la certezza
del diritto costituisce il punto di equilibrio a cui l’intero sistema giuridico deve tendere
anche, e soprattutto, nella società dell’algoritmo.
Entro questo quadro, si impone di effettuare una rassegna dei vari ambiti nei quali è
opportuno rivalutare la tenuta delle categorie esistenti, individuandoli nel diritto
costituzionale e amministrativo, nel diritto civile, nel diritto penale e nel diritto
processuale. Naturalmente le riflessioni che riguardano ciascuno dei segmenti non
potranno che avere un impatto anche sugli altri, stante la necessità che le norme di
diritto positivo si conformino a una serie di principi comuni al di là della specifica branca
cui appartengono.

7. Intelligenza artificiale e diritto pubblico

La diffusione dei sistemi di intelligenza artificiale pone anzitutto questioni di ordine


costituzionale. Al costituzionalista, infatti, compete individuare le forme idonee per
assicurare che i valori e i diritti tutelati dalla carta fondamentale e della Carta di Nizza
possano trovare adeguata protezione anche al cospetto dei sistemi di intelligenza
artificiale. Occorre inoltre porsi alla ricerca di norme che agiscano come argine rispetto
all’esercizio di un potere che non promana più esclusivamente dalle autorità pubbliche,
ma si ritrova sempre più concentrato nelle mani di operatori privati (Teubner, 2004). Il
rapporto tra Stato e cittadini si fonda, come noto, sul riconoscimento in capo a questi
ultimi di un sistema di garanzie. Queste ultime intendono porre al riparo gli individui da
possibili abusi e arbìtri da parte dei temporanei detentori del potere pubblico. Questa
dinamica impone oggi un ripensamento alla luce delle caratteristiche diffuse del potere
“privato”. Si tratta di un potere detenuto da chi utilizza, spesso alimentandosi di ingenti
quantità di dati (big data), tecnologie algoritmiche e sistemi di intelligenza artificiale per
realizzare attività che presentano implicazioni rilevanti per i diritti e le libertà delle
persone (De Gregorio, 2019).
Questa necessaria estensione delle garanzie non comporta per l’esclusione dei poteri
pubblici, che a loro volta possono essere fruitori e utilizzatori di sistemi di intelligenza
artificiale per finalità disparate, senz’altro consentite dall’ordinamento, tra cui
l’efficientamento dell’attività amministrativa. Infatti, l’intelligenza artificiale non
coinvolge soltanto la sfera dei dritti dell’individuo ma anche altri principi costituzionali
quali quelli formanti l’organizzazione della giustizia e l’attività della pubblica
amministrazione.
La circostanza che criticità emergano anche nel rapporto tra cittadini e poteri pubblici, e
non soltanto nell’ambito dei rapporti orizzontali inter-privati, illustra efficacemente
come sia necessario un ripensamento di alcuni aspetti del rapporto di cittadinanza
(sempre più digitale). Le norme costituzionali, pensate esclusivamente per attagliarsi al
14
rapporto tra potere pubblico e individuo, paiono vacillare al cospetto di questo nuovo
scenario.
La tutela dei diritti appare, invero, soltanto uno dei versanti rispetto ai quali è
auspicabile che si registri un’evoluzione in grado di restituire un elevato livello di
controllo da parte degli individui. Nella prospettiva del diritto pubblico si palesano altresì
esigenze di governance della tecnologia, che implicano la necessità per i regolatori di
realizzare opportune forme di concertazione a livello nazionale e sovranazionale.
L’esigenza di rafforzare la tutela dei diritti fondamentali si coglie guardando alle
embrionali forme di codificazione di nuovi diritti, di cui si ha traccia, per esempio, nel già
ricordato GDPR, al Considerando 71 e all’art. 22. Tali referenti paiono dare fondamento
a un diritto “alla spiegazione” nell’ambito dei processi decisionali automatizzati, così da
costituire al contempo una barriera a tutela degli individui rispetto a decisioni del tutto
estranee a un intervento umano che incidano significativamente sui loro diritti. La
norma appare veicolare un messaggio evidente: restituire centralità al fattore umano,
pur senza che la necessaria precedenza logica e giuridica dell’agente umano possa
ergersi a ostacolo all’innovazione tecnologica e al miglioramento dei processi che parti
pubbliche e private pongono in essere. Il diritto alla spiegazione cela evidentemente
un’esigenza primitiva di trasparenza, che soprattutto (ma non esclusivamente) nel
campo dei provvedimenti amministrativi riflette un principio cruciale per conferire al
cittadino la possibilità di verificare le modalità di esercizio del potere ed esercitare su di
esso un controllo, compreso il sindacato giurisdizionale. Questa esigenza non manca di
essere avvertita anche nell’ambito delle applicazioni nel settore privato, dove sono
invece carenti specifici meccanismi che consentano analogo controllo da parte di chi
subisce gli effetti di una decisione automatizzata (in dottrina, Wachter-Mittelstadt,-
Floridi, 2017; Kaminski, 2019). Accanto al diritto alla spiegazione si potrebbe valutare la
codificazione di un ulteriore principio, ossia il diritto a conoscere il proprio interlocutore
e la sua natura, onde assicurarsi non soltanto della trasparenza del processo decisionale
automatizzato ma anche della sua effettiva corrispondenza a una logica umana ovvero
algoritmica. Il diritto a non essere sottoposti a un trattamento interamente
automatizzato si iscrive nella disciplina specifica sulla tutela dei dati personali, ma
ambisce ovviamente a un riconoscimento più ampio, che lo emancipi dalla dimensione
della data protection. Sotto questo profilo, è importante osservare il trend che ha
condotto negli ultimi anni la Corte di giustizia a interpretare il diritto alla privacy e alla
protezione dei dati con effetti orizzontali, in particolare nella decisione Google Spain del
2014 (causa C-131/12), che a sua volta concerneva l’attività di un motore di ricerca
consistente nella indicizzazione automatica di dati personali contenuti in pagine web di
siti sorgente. In questa e altre pronunce la Corte di giustizia ha offerto importanti
indicazioni a sostegno di un’applicazione dei diritti fondamentali anche nei rapporti
orizzontali inter-soggettivi, quale per esempio quello che si instaura tra motore di
ricerca e individuo, i cui dati sono oggetto di memorizzazione tra i risultati delle ricerche
(Pollicino, 2018). Proprio questo trend parrebbe sostenere l’opportunità di codificare o
comunque riconoscere nuove situazioni giuridiche che non trovano immediata tutela
15
nelle carte dei diritti in quanto si mostrano sguarnite di protezione e dunque di
giustiziabilità soprattutto nei rapporti inter-privati. Infatti, di fronte all’attività dei poteri
pubblici, princìpi come la trasparenza impongono una possibilità di accesso e di controllo
sull’operato dell’amministrazione. Invece, nei rapporti privati tali tutele non sarebbero
direttamente applicabili in assenza di una codificazione normativa. Il GDPR ha tentato di
realizzare una tale codificazione sotto il profilo della tutela dei dati personali, ma essa
inevitabilmente aspira a un confezionamento entro sedi normative più generali, financo,
per alcuni tratti, di rango costituzionale.
Le implicazioni di carattere costituzionale sul fronte dei diritti e dell’eguaglianza non
sono circoscritte soltanto a questo ambito, ma conoscono manifestazioni in forme
variegate (Casonato, 2019; Simoncini, 2019).
Tensioni si pongono anzitutto rispetto all’eguaglianza dei cittadini, da intendersi in
particolare come parità di chances e sotto il profilo “sostanziale”, non meramente
ancorata a un vincolo formalistico. La diffusione di sistemi di intelligenza artificiale è
destinata, per esempio, a determinare conseguenze di grande momento in ambito
occupazionale: per un verso, sostituendo gli individui nell’esecuzione di mansioni che
possono essere svolte analogamente da una macchina, per altro verso sottraendo però
opportunità lavorative. L’impatto di questi sistemi riguarderà tanto le professioni
intellettuali quanto le attività diverse da queste ultime; è ragionevole pronosticare,
tuttavia, che saranno soprattutto quelle artigiane e operaie (normalmente esercitate da
personale con livello meno elevato di istruzione), a risentire del rapporto di
succedaneità tra uomo e macchina, con ricadute sociali che potrebbero attingere
l’eguaglianza sostanziale dei cittadini. Un altro versante esemplificativo riguarda
l’ambito della salute, ove è ragionevole pronosticare un più diffuso ricorso a tecniche e
dispositivi medicali di nuova generazione, che però potrebbero, per gli elevati costi di
sviluppo e di messa a regime, causare una disparità nell’accesso alle cure somministrate
tra abbienti e meno abbienti.
Un secondo profilo meritevole di attenzione si ricollega alla sfera dei diritti politici.
L’impiego di tecniche algoritmiche favorisce dinamiche di profilazione degli utenti
basate sulla raccolta delle loro preferenze, in grado di rifletterne convinzioni e
orientamenti politici, morali, filosofici, religiosi, etc. Come dimostra anche la vicenda
Cambridge Analytica, la raccolta di queste informazioni a carattere personale può
alimentare una bubble democracy nella quale gli utenti sono destinatari di messaggi
personalizzati, che in quanto selezionati in base all’analisi algoritmica delle loro
preferenze, si presume riscuoteranno maggiore successo (Sunstein, 2009). Questa logica
di “customizzazione” rischia tuttavia di deformare la reale estensione del quadro delle
opinioni e visioni politiche. Si condiziona il rafforzamento delle posizioni di partenza
(confirmation bias) anziché favorire una loro ponderazione ed eventuale rivisitazione
tramite il confronto critico con altre di segno opposto, che esistono nella realtà ma
divengono “invisibili” sul web e sui social network in particolare (Pariser, 2011).
Sul versante della governance è avvertita l’esigenza di individuare o costituire
un’autorità indipendente che possa assurgere a garante di uno sviluppo dei sistemi di
16
intelligenza artificiale in conformità a linee e orientamenti condivisi a livello
sovranazionale, in modo da preservare la centralità della persona umana, della sua
dignità e dei diritti fondamentali. L’amministrazione, del resto, non pu astenersi
dall’intervenire a fronte di fatti economici rilevanti in cui viene sviluppata la capacità
delle macchine di riprodurre o attuare operazioni tipiche delle funzioni cognitive umane,
compiendo azioni con un certo grado di autonomia. La public regulation potrebbe essere
affidata ad un apparato estraneo al circuito politico, indipendente rispetto al governo e
a singoli ministri, e caratterizzato dalla tecnicità dei componenti. La specializzazione del
personale è necessaria dal momento che l’attività richiede conoscenze specifiche che
non si ritrovano ordinariamente nell’ambito della funzione pubblica, ed è utile a
prevenire conflitti di interessi. In via alternativa, potrebbero essere istituiti uffici di
regolazione sul modello statunitense, vigilati o incardinati presso i dipartimenti
dell’esecutivo e con competenze settoriali. La collocazione ideale di un’autorità di
questo tipo è sovranazionale, perché di rilevanza internazionale sono i temi, le tecniche,
i caratteri delle questioni affrontate. Ma la stessa è suscettibile di essere collocata anche
a livello domestico, pur sempre entro un network europeo sul modello di altre
regolazioni economiche.
A una simile Autorità potrebbero essere attribuiti poteri sia amministrativi che “quasi
legislativi” e “quasi giudiziali”, ricorrendo a tecniche di hard e soft law, e cumulando
diverse funzioni che allo stato non appaiono univocamente ascrivibili agli attori pubblici
esistenti. Potrebbe svolgere funzioni di carattere regolatorio dell’iniziativa privata,
provvedendo anche alla formulazione di indirizzi generali nel settore. Ovvero funzioni di
certificazione pubblica a garanzia dell’affidabilità e della trasparenza per i produttori e
per gli utenti. Ovvero ancora funzioni di vigilanza o di accertamento rispetto a possibili
rischi di manipolazione e profilazione. A questa Autorità a potrebbe essere rimesso il
compito di disciplinare i requisiti di trasparenza, sicurezza, affidabilità, sostenibilità,
accountability di chi opera nel settore – anche mediante sistemi di accreditamento –,
nonché le modalità di tutela dei soggetti vulnerabili. L’Autorità dovrebbe regolarmente
riferire in Parlamento sull’attività svolta. La scelta delle politiche pubbliche necessarie
per l’attuazione dell’intelligenza artificiale, dovrebbe, invece, rimanere affidata agli
organismi politico-rappresentativi.
A questo sistema potrebbe validamente aggiungersi la costituzione di un organo
consultivo permanente che replichi il modello multi-stakeholder – attuato, per esempio,
con l’Internet Governance Forum – aprendosi ai vari attori del settore pubblico e privato
per promuovere il dibattito sulle implicazioni etiche, giuridiche ed economiche dei
sistemi di intelligenza artificiale. Nel complesso, la prospettiva proposta sembra
confermare la necessità di un sistema di governo pubblico in grado di incidere dall’alto
sulle posizioni economiche degli operatori privati, secondo una filosofia differente da
quella che ispira la Internet Corporation for Assigned Names and Numbers (ICANN). In
qualità di ente privato che opera senza fini di lucro sul sistema dei nomi a dominio, degli
indirizzi e dei protocolli internet, esso ha dato vita ad un modello di governance
contrattuale, basato sulla necessità della stipulazione di accordi privatistici tra l’ente e gli
17
operatori. Eppure, in tale articolato sistema di governo, le istituzioni pubbliche e gli
elementi di autoritatività non scompaiono affatto, poiché la rete necessita di un sistema
unitario in cui singole parti possono differenziarsi, ma a condizione che ciò avvenga
secondo regole tali da assicurare l’uniformazione e l’integrazione funzionale.
Sempre sul versante pubblicistico, come si è evidenziato, l’intelligenza artificiale
promette un impatto di grande momento rispetto all’attività della pubblica
amministrazione, e dunque nell’ambito precipuo del diritto e del processo
amministrativo. La già ricordata vicenda giurisprudenziale che ha trovato seguito nella
pronuncia del Consiglio di Stato ha descritto importanti indicazioni sul rapporto tra
regola algoritmica e regola giuridica (Luciani, 2018). L’utilizzo da parte della pubblica
amministrazione di sistemi algoritmici impone pertanto di costituire una serie di vincoli
che possano conformare la tecnologia ai principi sottesi all’attività amministrativa.
Naturalmente, al fine di assicurare un utilizzo virtuoso e rispondente all’interesse
pubblico dell’intelligenza artificiale potrebbe essere utile stabilire alcuni presìdi
mediante legge ordinaria, per esempio nella seguente formula: «Le pubbliche
amministrazioni istituiscono una rete di comitati tecnici per il controllo e il monitoraggio
costante dei processi di intelligenza artificiale composti da scienziati, economisti e
giuristi, con il compito di fornire al Governo gli elementi da illustrare al Parlamento sulla
verifica annuale dei processi di sviluppo e applicazione dell’intelligenza artificiale. I
comitati tecnici valutano anche gli impatti sociali e giuridici dell’uso dell’intelligenza
artificiale da parte del settore pubblico al fine di modulare opportunamente gli obiettivi
settoriali».
Questi interventi potrebbero permettere di arginare le insidie insite nell’esistenza di un
ineliminabile bias dovuto alla programmazione degli algoritmi da parte di agenti umani,
sensibili, a una serie di fattori “esterni”. Si mira così ad assicurare che in questo ambito i
parametri di funzionamento dell’algoritmo costituiscano il risultato di un processo
decisionale pubblico di cui sia garantita la massima trasparenza. Come contraltare,
ricorre per l’esigenza di un controllo democratico sui pubblici poteri da parte dei
cittadini, che presuppone un sufficiente grado di alfabetizzazione corrispondente
all’elevato contenuto tecnico degli algoritmi, che trova eco anche normativamente nel
principio di totale accessibilità degli atti e dei documenti amministrativi (cosiddetto
“FOIA”, d.lgs. n. 97/2016). Tali interventi potrebbero trovare attuazione, per esempio, a
partire da disposizioni come l’art. 8 del Codice dell’amministrazione digitale. Analoghe
misure dovrebbero mirare a consentire alla stessa pubblica amministrazione e ai
funzionari che vi operano di mantenere un effettivo potere di dominio sul prodotto di
una decisione automatizzata, loro imputabile, di cui agli effetti giuridici essi continuano a
rispondere.
Questi interventi paiono rappresentare le condizioni ottimali affinché i processi
automatizzati, già diffusi in misura apprezzabile nell’ambito di atti amministrativi
vincolati o a bassa discrezionalità amministrativa, possano conoscere un’estensione
della loro applicazione anche nell’ambito della formazione delle decisioni amministrative
contraddistinte da un più elevato livello di discrezionalità. Sotto questo profilo,
18
particolari criticità andranno affrontate rispetto alla motivazione dell’atto
amministrativo, adempimento la cui complessità può variare significativamente a
seconda del grado di discrezionalità richiesto. Sul versante dell’intensità del controllo
giurisdizionale, le proprietà dell’algoritmo non andranno considerate come un ambito
riservato alla pubblica amministrazione, non attingibile dal sindacato giurisdizionale, se
non in termini di ragionevolezza e proporzionalità, bensì dovranno essere oggetto di una
piena e diretta verifica istruttoria.

8. Intelligenza artificiale e diritto civile

L’intelligenza artificiale e le nuove tecnologie avranno un significativo impatto anche


sulle regole del diritto privato. In primo luogo, nell’area concernente “le persone”,
studiosi quali Teubner, hanno discusso in merito alla esigenza di creare una nuova figura
giuridica dotata della capacità di agire e della capacità di essere titolare di situazioni
giuridiche soggettive: il robot. Il nuovo soggetto dovrebbe affiancarsi alle persone
naturali e agli enti nel quadro dei rapporti privatistici (Teubner, 2018). I vantaggi
risiederebbero nella possibilità di limitare la responsabilità dei programmatori e degli
utilizzatori dei servizi del nuovo potenziale soggetto al fine di promuovere lo sviluppo
tecnologico. Nelle trattazioni più approfondite si osserva che il futuro soggetto, dotato
di intelligenza artificiale, potrebbe essere sottoposto a regole che allo stato vigono per
gli enti. In questo modo, ad esempio, sarebbe possibile assicurare l’esistenza di una
garanzia patrimoniale utile a far fronte a eventuali pretese risarcitorie di terzi.
In proposito, è stato opportunamente messo in luce che, diversamente rispetto ai
soggetti che attualmente intrattengono rapporti nell’ambito del diritto privato, il robot
non persegue un proprio interesse. L’interesse è pur sempre riconducibile a un diverso
soggetto, inteso in senso tradizionale, che si avvale degli strumenti messi a disposizione
dell’intelligenza artificiale. Questo fondamentale rilievo è sufficiente per affermare che
non sussiste la necessità di creare nuovi soggetti giuridici. La tecnologia e l’intelligenza
artificiale sono (e devono permanere) al servizio dei soggetti giuridici intesi in senso
tradizionale. Peraltro, la netta presa di posizione non deve indurre il giurista a distogliere
l’attenzione dai procedimenti decisionali, in parte imprevedibili, che caratterizzano le
nuove tecnologie. Il profilo è di primaria importanza per comprendere come, nei diversi
settori, il diritto privato debba disciplinare atti posti in essere con l’ausilio della
tecnologia, che in alcuni settori si sostituirà alle condotte umane.
Alcune innovazioni sono già attuali e coinvolgono la materia cardine dei rapporti
privatistici, ossia il contratto. Il pensiero è subito rivolto allo smart contract che, nel
contesto del c.d. “decreto Semplificazioni” all’art. 8-ter (aggiunto dalla l. 12/2019 in sede
di conversione del d.l. 135/2018), è stato di recente definito come “un programma per
elaboratore che opera su tecnologie basate su registri distribuiti e la cui esecuzione
vincola automaticamente due o più parti sulla base di effetti predefiniti dalle stesse”. In
questo ambito, di indubbia rilevanza da un punto di vista economico, l’ambizione dei
programmatori è quella di escludere completamente l’operatività del diritto. Secondo la
19
visione più estrema, il codice dovrebbe prendere il posto del diritto, poiché è proprio il
codice computerizzato – in queste ricostruzioni – a fungere da “diritto”. In modo
provocatorio Savelyev ha osservato inoltre che gli smart contracts rappresentano l’inizio
della fine del diritto contrattuale (Savelyev, 2016).
Di fronte ad affermazioni di questo genere, i giuristi devono rispondere con cautela,
venire a conoscenza degli aspetti tecnici e affrontarne i profili problematici. Si tratta di
una tematica spesso intrisa di luoghi comuni, da superare facendo uso delle tradizionali
categorie civilistiche. In questa prospettiva, è necessario mettere in luce che,
nonostante il seducente appellativo, coniato negli anni novanta da Szabo, gli smart
contracts non sono affatto intelligenti (Szabo, 1997). Essi eseguono semplicemente una
prestazione al ricorrere di un determinato evento (trigger event), che opera come una
sorta di condizione: una volta verificatosi l’evento, l’esecuzione del contratto diviene
inesorabile, alla stregua delle operazioni di un distributore automatico che, in seguito
all’immissione della moneta, dispensa il prodotto e l’eventuale resto. Lo smart contract
in quanto tale non è dunque dotato di intelligenza artificiale e il procedimento
automatizzato, allo stato, riguarda soltanto l’esecuzione e non la conclusione del
contratto. Ne deriva che, a rigore, lo smart contract non potrebbe neppure considerarsi
un contratto (Durovic-Janssen, 2018).
Le questioni più significative si pongono per gli smart contracts connessi alla tecnologia
blockchain. Le transazioni avvengono su piattaforme informatiche che prendono il posto
degli intermediari e assicurano che la corretta esecuzione del contratto, concluso
attraverso l’incontro tra la proposta e l’accettazione, non possa più essere messa in
discussione. Pertanto, in linea teorica, gli smart contracts non conoscono
inadempimenti. Inoltre, sono in grado di generare vantaggi in termini economici, in virtù
della eliminazione dei costi di transazione, principalmente connessi alle negoziazioni e
alle attività di intermediazione. In questo quadro, il grande cambiamento rispetto al
passato riguarda l’affidamento nelle capacità di adempiere dell’altro contraente. Chi
compie una transazione su una piattaforma blockchain generalmente non conosce
l’altro contraente, il suo affidamento concerne soltanto il funzionamento della
piattaforma. In questo senso, si afferma che gli smart contracts sono self-executing e
self-enforcing. In realtà, il procedimento non sempre è pienamente automatizzato
poiché spesso le informazioni rilevanti per l’esecuzione del contratto vengono fornite da
un terzo che, nel gergo tecnico, viene denominato oracle. L’affidamento dei contraenti
deve pertanto estendersi anche a quest’ultima figura (Durovic-Janssen, 2018).
Nonostante le incomprensioni e le incongruenze, gli smart contracts avranno un impatto
significativo nel mercato. Tuttavia, non corrisponde al vero che il codice si sostituirà al
diritto; il diritto continuerà certamente ad essere applicabile. Eventuali falle nei sistemi
operativi potrebbero agevolare fraudolente manomissioni da parte di soggetti terzi, che
richiederebbero l’applicazione delle norme sulla responsabilità. Inoltre, non pu
escludersi che uno smart contract violi norme imperative o che venga concluso da un
soggetto incapace di agire. Molto rilevante, anche in virtù dei risvolti per il mercato
concorrenziale, si profila l’applicazione del diritto dei consumatori, che contiene norme
20
idonee a tutelare la parte debole del rapporto contrattuale, limitando l’autonomia dei
contraenti. Le riflessioni non dovrebbero riguardare soltanto l’astratta questione
dell’applicabilità delle norme imperative, bensì essere volte ad individuare in che modo
tali norme possano adattarsi a protocolli informatici. In questo senso, sarà necessario
valutare l’applicabilità della direttiva 93/13/CEE, concernente le clausole abusive nei
contratti stipulati con i consumatori. Non è escluso che la normativa europea possa
applicarsi a codici informatici e che la tecnologia possa rendere più efficace il controllo
sostanziale dei contratti nei rapporti B2C.
Le procedure di esecuzione automatizzata possono comportare un aumento
dell’effettività del diritto. Oltre a quanto indicato con riguardo alle clausole abusive, un
esempio sovente menzionato in dottrina riguarda la compensazione pecuniaria alla
quale è tenuto il vettore aereo, in caso di ritardo o cancellazione del volo, ai sensi
dell’art. 5, par. 3, del Regolamento CE n. 261/2004. Rendendo la tecnologia degli smart
contracts obbligatoria per i vettori aerei sarebbe possibile assicurare ai consumatori gli
indennizzi in via automatica. Attualmente, in media solo il 5 per cento dei passeggeri
esercita i propri diritti in caso di ritardo o cancellazione del volo. Gli smart contracts
potrebbero avere un impatto significativo sui rapporti tra vettori aerei e passeggeri e
incidere sulle modalità di erogazione dei servizi. Da questo punto di vista, si teme che
l’aumento di effettività del diritto possa rendere quest’ultimo insostenibile da un punto
di vista economico. Se i vettori aerei fossero sistematicamente obbligati al pagamento
dell’indennizzo in caso di ritardo o cancellazione del volo, si assisterebbe con tutta
probabilità a un incremento significativo del prezzo dei biglietti aerei. In questo senso, in
maniera paradossale, Basedow ha affermato che il diritto non sempre si presta ad
essere pienamente effettivo.
Al di là di questa problematica, occorre rilevare che le nuove tecnologie potrebbero
apportare un significativo miglioramento delle norme giuridiche, rendendole più
adeguate alla soluzione del caso concreto. In base alla normativa europea relativa alla
responsabilità del vettore aereo pochi minuti di differenza nella durata del ritardo
possono assumere un’importanza decisiva ai fini del riconoscimento dell’indennizzo. Con
la tecnologia degli smart contracts sarebbe possibile quantificare un indennizzo in
proporzione al ritardo accumulato. Il problema specifico si collega a quello di carattere
più generale concernente la personalizzazione delle norme giuridiche. Con l’avvento dei
big data, i software potrebbero modellare le norme giuridiche sulla base delle
peculiarità di ogni singolo consociato (c.d. “granular norms”). Secondo Casey e Niblett,
ci potrebbe determinare il superamento dell’utilizzazione di standard e clausole
generali nel diritto privato (Casey-Niblett, 2017).
I processi decisionali algoritmici assumono rilievo nel contesto dei mercati attraverso la
pratica del c.d. ‘High-frequency trading’ (HFT). Si tratta di una modalità di intervento sui
mercati compiuta con sofisticati strumenti software, e talvolta anche hardware, che
permettono di porre in essere negoziazioni ad alta frequenza, guidate da algoritmi
matematici, che agiscono su mercati di azioni, opzioni, obbligazioni, strumenti derivati,
commodities (Balp-Strampelli, 2018). La durata di queste transazioni può essere
21
brevissima, con posizioni di investimento fatte proprie per periodi di tempo variabili, da
poche ore fino a frazioni di secondo. Lo scopo di questo approccio è quello di lucrare su
margini estremamente esigui, anche pochi centesimi. Per ottenere significativi ricavi
mediante margini minimi, la strategia HFT deve necessariamente operare su grandi
quantità di transazioni giornaliere. L’HFT pu causare distorsioni nel mercato, in quanto
gli scambi ad alta velocità conferiscono un vantaggio a chi li mette in atto rispetto a chi si
serve di strumenti tradizionali. Inoltre, la continua azione degli operatori HFT tra mercati
diversi sullo stesso titolo conferisce ai mercati un’estrema volatilità, senza tuttavia che i
movimenti speculativi si consolidino su una posizione di investimento sul capitale
azionario di specifiche aziende. Ciò dimostra che le operazioni prescindono da
valutazioni sui fondamenti economici esibiti dalle aziende. La potenziale pericolosità
dell’HFT per la stabilità dei mercati è confermata dal caso Goldman Sachs, uno dei più
importanti operatori a far ampio uso della suddetta tecnologia. Un suo dipendente,
Sergey Aleynikov, si è impossessato dei codici sorgente con cui la compagnia accedeva a
simili operazioni di trading: la vicenda di Aleynikov si concluse con l’arresto da parte
dell’FBI e l’applicazione di una pena detentiva.
La pericolosità dell’HFT è ulteriormente testimoniata da interventi normativi volti a
porre un freno alle relative attività speculative e a garantire una certa trasparenza con
riferimento alle modalità operative. Sotto questi profili, deve essere valutata con
attenzione la revisione della direttiva europea, c.d. MiFID II (Markets in Financial
Instruments Directive) e ulteriori regolamenti attuativi, che obbligano gli high frequency
traders a registrarsi come imprese di investimento e a rendere pubblici i loro algoritmi,
fornendo garanzie sull’attendibilità dei loro software. In ambito nazionale, la CONSOB
segue con particolare concentrazione gli sviluppi tecnologici e ha pubblicato discussion
papers e altri contributi nel tentativo di pianificare interventi regolatori idonei a
fronteggiare le principali problematiche a livello interno e sovranazionale.
Da un altro angolo di visuale, i problemi relativi alla responsabilità civile investono
soprattutto l’applicabilità delle norme relative all’illecito in ipotesi in cui una scelta, che
si rivela dannosa, sia stata compiuta in base alle elaborazioni di un algoritmo. Si
pongono problemi soprattutto in ordine alla prova della sussistenza degli elementi della
responsabilità civile. Più in generale, sono in discussione le funzioni della responsabilità
civile, che dovrebbe continuare a garantire una certa carica deterrente nei confronti dei
possibili tortfeasors e, al contempo, rispondere all’esigenza di indennizzare
adeguatamente i soggetti danneggiati. Le nuove tecnologie rendono necessaria
l’elaborazione di nuovi parametri per attribuire la responsabilità e, posta la diversa
gestione del rischio, impongono ai giuristi di ripensare alcune norme concernenti la
responsabilità oggettiva.
Per quanto attiene ai parametri di riferimento per attribuire la responsabilità, si tratta di
valutare la condotta di sistemi in grado di apprendere autonomamente e di decidere
sulla base dei dati raccolti. Un primo parametro utilizzabile è quello relativo alle capacità
umane. In presenza di un danno causato da un sistema operativo autonomo, ci si
dovrebbe chiedere se un uomo nella stessa posizione sarebbe stato in grado di evitare il
22
danno. La soluzione è criticata da parte della dottrina, poiché il software dovrebbe avere
capacità superiori all’uomo e, in molti casi, le due condotte non sarebbero paragonabili,
posto che le nuove tecnologie possono generare rischi diversi rispetto a quelli connessi a
una condotta umana. In ogni caso (come osservato da Teubner, 2018), le capacità
dell’uomo potrebbero costituire – almeno nel primo periodo – una soglia minima di
“diligenza” richiesta al sistema operativo. In prospettiva, Chagal-Feferkorn propone di
sviluppare un parametro autonomo per i sistemi intelligenti, denominato “algoritmo
ragionevole”, diverso a seconda del settore preso in esame (Chagal-Feferkorn, 2018).
Altri autori, come Wagner, concentrano invece l’attenzione sui dati statistici concernenti
le attività esercitate da software dotati di intelligenza artificiale (Wagner, 2017).
Non mancano voci critiche in merito alla possibilità di sviluppare parametri adeguati a
valutare la condotta dei sistemi operativi autonomi. Il diritto potrebbe assicurare la
tutela dei danneggiati mediante normative speciali che prevedono ipotesi di
responsabilità oggettiva. In questo contesto, emerge il problema della responsabilità del
produttore con riguardo a sistemi operativi che apprendono autonomamente. Rispetto
alle nuove tecnologie, le norme di conio europeo, contenute nella direttiva 85/374/CEE
sulla responsabilità del produttore, appaiono del tutto inadeguate poiché si riferiscono a
tecnologie obsolete e non chiariscono con precisione in quali casi un sistema operativo
in grado di apprendere autonomamente è da considerare difettoso. Allo stato, un
gruppo di lavoro istituito dalla Commissione si sta occupando dello sviluppo di
guidelines, che dovrebbero permettere di orientare l’interprete chiamato ad applicare le
norme della direttiva.
Un ambito peculiare in cui si presentano le descritte problematiche è quello della
responsabilità da circolazione di veicoli a guida autonoma, in cui è sotto osservazione
l’apparato di regole relative alla responsabilità del proprietario del veicolo, alla
responsabilità del produttore e alla assicurazione obbligatoria (v. Comunicazione della
Commissione al Parlamento Europeo, al Consiglio Europeo, al Consiglio, al Comitato
Economico e Sociale Europeo e al Comitato delle Regioni, “Verso la mobilità
automatizzata: una strategia dell’UE per la mobilità del futuro”, del 17 maggio 2018). Da
più parti si discute di questioni che attengono a diversi soggetti interessati: i produttori,
gli utenti, le compagnie assicurative. Pur afferendo all’area del diritto privato, il settore
dei veicoli a guida autonoma incide certamente su interessi generali poiché, allo stato,
riguarda le norme sulla responsabilità civile che trovano più sovente applicazione e
concerne interessi economici di notevole rilevanza.
In un primo periodo, come è suggerito dalla suddetta Comunicazione, le attuali norme
relative alla responsabilità da circolazione di veicoli, assistite dalla previsione
dell’assicurazione obbligatoria, potrebbero continuare a fornire una regolamentazione
soddisfacente. In prospettiva futura, occorrerà riflettere su nuove forme di
responsabilità che coinvolgano maggiormente i produttori delle vetture. Questi ultimi
sono infatti i soggetti che immettono i sistemi operativi nel mercato e gestiscono i rischi
connessi al funzionamento del software. Il tema è affrontato a livello globale e, tenuto
conto delle principali tesi, si tratterà di decidere se modificare o interpretare
23
diversamente le norme in materia di responsabilità del produttore (come suggerito da
Geistfeld, 2017), oppure se creare un nuovo sistema di responsabilità no-fault, in cui i
danneggiati dovrebbero essere risarciti da un apposito fondo istituito con contributi
erogati dai produttori di veicoli a guida autonoma (come proposto da Abraham-Rabin,
2019).

9. Intelligenza artificiale e diritto penale

L’impatto dell’intelligenza artificiale. e delle questioni ad essa connesse, appare


rilevante anche con riferimento al diritto penale.
Sul piano della responsabilità per condotte penalmente rilevanti realizzate da soggetti
non umani, sembra opportuno avviare al più presto una discussione obiettiva, priva di
preconcetti, nella consapevolezza del rischio rappresentato da una deriva verso forme di
responsabilità penale oggettiva in capo a coloro che hanno progettato e attivato il
soggetto agente non umano.
Si tratta di una discussione che sembra spingersi al di là della realtà contingente.
Tuttavia occorre liberarsi di ogni condizionamento distopico per accettare che
numerosissime sono già oggi le fonti decisionali automatizzate le cui conseguenze
possono violare beni giuridici tutelati dalla legge penale. Ferma la granitica previsione
dell’art. 27, comma 1, Cost. – che ha di fatto impedito, ad oggi, il riconoscimento di
responsabilità penale in capo alle persone giuridiche (con il conseguente ricorso al
concetto di responsabilità amministrativa dell’ente per il reato commesso nel suo
interesse) – il problema dell’imputazione di responsabilità per scelte riferibili a decisioni
automatizzate non fa parte, appunto, di un futuro distopico, ma della realtà.
Indubbiamente la questione pone in discussione l’intero concetto di pena e coinvolge
nella discussione prospettive filosofico-culturali che trascendono la dogmatica
penalistica, innervandosi ancora una volta nel dibattito sul riconoscimento di una
soggettività giuridica. Il rischio da evitare, in primis, è quello di rivolgersi a paradigmi di
tipo oggettivo che, formalmente estranei al diritto penale, talvolta si affermano
attraverso l’intervento giurisprudenziale, per mezzo dell’amplificazione di posizioni di
garanzia pur previste dalla legge.

10. Intelligenza artificiale e processo

Non va sottaciuto il rilevante contributo che l’intelligenza artificiale pu fornire nel


campo dell’organizzazione del servizio giustizia, del funzionamento dei sistemi giudiziari
nazionali nonché del diritto processuale. Ivi l’applicazione delle tecnologie algoritmiche
può indubbiamente rappresentare un fattore di miglioramento dell’efficienza e della
qualità dei processi, sebbene l’implementazione della tecnologia debba avvenire in
modo responsabile e nel rispetto dei diritti fondamentali garantiti.
L’intelligenza artificiale applicata al settore dell’azione pubblica nel contesto della
produzione, diffusione, valutazione e miglioramento dei servizi pubblici e dei beni
24
collettivi, è intesa come un insieme di dispositivi di carattere tecnologico, tecnico e
matematico la cui regolazione va distinta per le fasi di sviluppo, utilizzo e monitoraggio e
per i livelli di conoscenza fattuale, di architettura e di agency che esso implica. Nel
settore dell’azione giudiziaria, in particolare, le promesse della giustizia predittiva si
sono riverberate nella espansione delle cosiddette legal tech, nell’aumento della
attenzione degli attori internazionali per la elaborazione di standard di accountability e
responsiveness (di sviluppo ed uso), nella sperimentazioni in taluni ordinamenti di
strumenti di aiuto alla decisione del giudice, di elaborazione in via preliminare del
potenziale di costo/beneficio di un contenzioso e della sua soluzione giurisdizionale.
Un utilizzo avanzato di questo insieme di strumenti ad alta intensità tecnologica,
articolati sulla applicazione della scienza matematica e della scienza informatica, è in
essere solo in alcuni Paesi europei. Eppure già nella distribuzione automatizzata dei casi,
nella analisi di banche dati giurisprudenziali (anche se non realizzata attraverso la
traduzione del linguaggio naturale in una rappresentazione digitale) e nella gestione
ponderata dei carichi di lavoro e dei flussi, lo strumento dell’automazione ha fatto la sua
entrata nell’organizzazione del servizio giustizia ormai da tempo.
Sul piano della qualità della giustizia le promesse e le aspettative legate all’applicazione
di strumenti di intelligenza artificiale vanno nella direzione di: (i) riduzione del
contenzioso attraverso rimedi alternativi automatizzati; (ii) riduzione dei margini di
errore nella valutazione preventiva del rischio di soccombenza (tale profilo riguarda in
particolare le professioni ordinistiche); (iii) riduzione dei tempi attraverso la trattazione
in via automatizzata delle controversie seriali e standardizzabili; (iv) riduzione dei
margini di differenziazione distrettuale e circondariale per tipologie di risposta a simili
tipologie di contenzioso.
Muovendo dai risultati conseguiti da società già operanti nel settore è possibile
affermare che, attualmente, esistono software in grado di anticipare correttamente
l’esito di un giudizio. Il dato assume rilevanza nell’ambito delle professioni forensi e della
gestione del contenzioso, posto che i software potrebbero essere in grado –
quantomeno – di influire sulla scelta del privato di agire in giudizio. Una prospettiva
maggiormente di frontiera auspica l’utilizzazione di software predittivi per la soluzione
di questioni di natura bagatellare.
La massima aspirazione di alcuni fautori dell’intelligenza artificiale. è quella di eliminare
del tutto il ruolo del diritto nell’espletamento di significative attività dell’uomo. Ci
potrebbe implicare l’adozione di meccanismi alternativi di risoluzione delle controversie
completamente automatizzati, eventualmente collegati a piattaforme blockchain
(Ortolani, 2019). L’obiettivo, da molti considerato utopistico, è quello di creare un
“giudice robot” (il c.d. “robo-judge”), in grado di decidere controversie sulla base
dell’elaborazione statistica di dati. Sebbene siano state messe in evidenza le potenzialità
della tecnologia negli accertamenti del fatto compiuti in ambito civile, la ricerca
scientifica si presenta ancora limitata con riferimento al possibile ruolo dell’intelligenza
artificiale.

25
Con la transizione da applicazione algoritmiche deterministiche ad applicazioni
probabilistiche, la decisione non deriva semplicemente dalla pedissequa applicazione del
ragionamento deduttivo, ma è basata sul contemporaneo apprezzamento di una
pluralità di interessi ed istanze che vengono in rilievo nel caso concreto. Si realizza in tal
senso un passaggio sintetizzabile nella formula dalla delega di processo alla delega di
decisione, che implica necessariamente l’accettazione dell’esistenza del margine di
errore. La tecnologia potrebbe assicurare maggiore velocità e un significativo risparmio
di risorse. Come in altri campi, le innovative soluzioni che la tecnologia è in grado di
offrire per la soluzione delle controversie civili dovranno necessariamente conseguire un
elevato livello di accettazione sociale prima di essere implementate. Merita attenzione,
altresì, l’impatto che i sistemi di open access, associati a strumenti algoritmici predittivi,
possono produrre sul piano del valore del precedente e dell’indipendenza degli organi
giudicanti.
La regolazione etica e giuridica di tali profili deve tenere conto degli snodi organizzativi
entro cui domanda ed offerta di giustizia si incontrano. Quattro appaiono le dimensioni
funzionali che necessitano di essere poste alla attenzione della norma etica e giuridica in
questo contesto: conoscenza, rito del processo, status dell’organo terzo dirimente le
controversie, dati personali. I principi che vanno richiamati in tale senso sono: (i)
responsabilità professionale e trasparenza della produzione della conoscenza; (ii)
applicazione delle garanzie processuali di difesa; (iii) autonomia della giurisdizione e
indipendenza del giudice; (iv) privacy e sicurezza dei dati. Essi possono essere declinati in
norme etiche e in norme giuridiche.
Sul piano etico un codice deontologico che assicuri la responsabilità professionale degli
sviluppatori e di coloro che intervengono nel processo di integrazione e applicazione dei
dispositivi di automazione appare necessario e in linea con le forme di regolazione delle
expertise peritali e di consulenza di cui ci si avvale in via endoprocedimentale. Ancora la
estensione delle garanzie processuali massime – in tal senso il caso ordinamentale
italiano appare in una prospettiva comparata di sicura ispirazione – per i riti nei quali le
parti possono avvalersi (con riconoscimento nel processo) di strumenti di giustizia
predittiva deve essere assicurata con il più alto livello di tutela costituzionale.
L’autonomia del giudice a fronte della disponibilità di conoscenza induttiva derivata
dalla analisi di banche dati giurisprudenziali va assicurata sia con norme che obblighino
le giurisdizioni supreme a un set di standard comuni per il trattamento di tale
conoscenza da parte delle giurisdizioni di primo e secondo grado, sia con norme che
integrino nella argomentazione del giudice la esplicitazione della fonte da cui tale
conoscenza viene desunta. Sul piano giuridico ordinamentale dovrebbero essere
previste delle unità specializzate a livello di giurisdizioni di secondo grado – dove il
giudizio di fatto trova la sua sintesi – per la valutazione dei dispositivi di analisi delle
banche dati. Infine, la qualità dei dati e la loro tutela va prevista sul piano giuridico. Sub
condicione di anonimato del giudice, le banche dati devono rispondere a sistemi di
regolazione pubblica responsabili della sicurezza. In tal senso, andrebbe previsto in via
legislativa la disposizione nei ministeri di uffici preposti allo sviluppo reti e politiche di
26
mantenimento della sicurezza. Le garanzie di privacy dovranno essere conformi alle
norme sovranazionali in materia (GDPR).
Anche la sfera del processo – civile, penale, amministrativo, contabile – è chiamata a
confrontarsi con le implicazioni del digital turn, non soltanto per via del senso, assai
diffuso, di ineluttabile transizione verso un quadro in cui tutte le attività umane
debbono necessariamente offrirsi alla rivoluzione basata sull’inedito connubio tra
incommensurabile potenza computazionale e big data. É, infatti, incontestabile la
condizione di grave inefficienza e inefficacia della giustizia, che pone tutti gli operatori
nella posizione di dover studiare come le potenzialità dell’era digitale e, in particolare,
l’intelligenza artificiale, possano eventualmente migliorare l’attuale situazione.
In particolare, con riferimento al problema della prova, con considerazioni mirate
soprattutto sul processo penale ma estensibili, con opportune distinzioni, al processo in
generale, può essere osservato quanto segue.
L’impiego di strumenti algoritmici nella ricerca e nella formazione della prova implica
una inevitabile opacità del processo di creazione del dato probatorio.
Occorre, pertanto, per bilanciare l’asimmetria conoscitiva tra le parti del processo,
valorizzare in pieno il principio di parità delle armi.
Questa asimmetria conoscitiva, fortemente radicata nella tradizione, post-inquisitoria,
italiana e di molti altri Stati europei continentali, è inevitabilmente legata alla presenza
di una parte pubblica nell’indagine e nel processo penale. Essa rischia di essere
oltremodo amplificata dal ricorso a mezzi di ricerca della prova e mezzi di prova la cui
opacità, accentuata dall’impiego di soluzioni di machine learning o deep learning, può
sottrare completamente la prova stessa al confronto dialettico delle parti sulla sua
attendibilità. Ci trasformerebbe la “prova algoritmica” in un mezzo apoditticamente
attendibile e, quindi, il giudice, in mero annotatore di un processo di valutazione della
prova interamente assorbito dalla natura algoritmica della medesima.
Allo scopo di attuare più efficacemente le suddette considerazioni, occorre inoltre
identificare e distinguere, all’interno della “prova algoritmica”, i profili di rischio di
inattendibilità legati al piano della teoria scientifica sintetizzata nell’algoritmo e quelli
legati, invece, alla costruzione e al funzionamento dell’algoritmo stesso. Risulta evidente
dalla esperienza di alcune giurisdizioni locali statunitensi che l’impiego processuale di
strumenti di natura predittiva nasconde plurimi livelli di opacità e di rischio, dipendenti
non soltanto dalla natura digitale e automatizzata dello strumento probatorio. Infatti, il
software che confeziona il dato utilizzato con valore probatorio all’interno del processo,
innanzitutto, si basa su una teoria scientifico-probabilistica che potrebbe non rispondere
ai parametri “Daubert” i quali, trascendendo la sfera della Corte Suprema statunitense,
sono divenuti, nel tempo, una sorta di decalogo per l’ammissibilità della prova scientifica
nella maggior parte degli ordinamenti occidentali. Il primo profilo di contraddittorio
processuale deve riguardare, allora, la validità e la validazione della teoria scientifica
sottesa all’algoritmo da parte della comunità scientifica di riferimento. Il profilo
dell’opacità dell’algoritmo in cui essa viene sintetizzata rappresenta un secondo,

27
ineluttabile, tema di confronto tra le parti, in contraddittorio, davanti al giudice
imparziale.
Un altro passaggio consiste nel rivalutare la tradizionale distinzione tra fase cognitiva ed
esecutiva, in relazione all’impiego di valutazioni predittive del comportamento violento
e del rischio di recidivanza. In diretta connessione con quanto sottolineato nel punto
precedente, si osserva un crescente ricorso a strumenti algoritmici di predizione del
rischio di recidivanza e/o di comportamenti violenti (come anche nel caso State v.
Loomis già ricordato), basati su teorie bayesiane che sfruttano correlazioni ottenute
dall’analisi automatizzata di dati di varia provenienza. Come accennato, l’area geografica
di riferimento, al momento, è per lo più quella nordamericana e australiana, ma con
progressive incursioni anche in Europa (in particolare, Inghilterra e Galles). Poiché tali
strumenti predittivi si basano su teorie psico-criminologiche più o meno accettate dalla
comunità scientifica, il vaglio di cui si accennava anche supra rimane essenziale.
Altrettanto essenziale è la rivalutazione del ruolo che la prova dell’attitudine caratteriale
e psicologica può avere nel processo penale. Si tratta di un elemento certamente
rilevante nella quantificazione della pena e nella modulazione del trattamento
sanzionatorio in concreto, ma non certo nell’accertamento dei fatti oggetto del singolo
procedimento penale. In questa prospettiva, la tradizionale distinzione che vede l’Italia e
altri Paesi continentali opporsi all’idea che la valutazione caratteriale possa incidere
sull’accertamento della responsabilità per i fatti accaduti torna ad assumere grande
significato. La prova (predittiva, algoritmica, automatizzata) caratteriale può acquisire
elementi conoscitivi su come l’imputato potrebbe essere portato a comportarsi in
futuro, ma nulla dice rispetto alla responsabilità di questi rispetto ai fatti di cui è
accusato.
Sul diverso piano dell’indipendenza del giudice merita di essere preso in considerazione
attentamente l’impatto che i sistemi di open access, associati a strumenti algoritmici
predittivi, possono produrre sul piano del valore del precedente e dell’indipendenza
degli organi giudicanti. L’accesso completo e automatizzato alle decisioni giudiziarie
rappresenta un tassello del più ampio movimento per l’openness delle pubbliche
amministrazioni che in alcuni ordinamenti, come ad esempio, la Francia, è già stato
assicurato da tempo. Certamente tale strumento agevola molto i professionisti legali,
favorendo una migliore conoscenza e circolazione anche delle decisioni di merito.
Pertanto, tale esteso bacino di sentenze presenta fortissima appetibilità per chi sia
interessato a costruire, a beneficio – principale ma non esclusivo – delle law firms,
strumenti predittivi della decisione giurisdizionale. Alimentando una rete neurale con
l’insieme di tutti i precedenti, pur non vincolanti, si possono stabilire, correlazioni utili
per immaginare come il giudice si pronuncerà rispetto a una determinata questione e
all’interno del collegio che concorre a comporre.
Ciò può rappresentare, come accennato, un grande vantaggio per la strategia difensiva e
per l’allocazione delle risorse all’interno dello studio legale. Esso ha diverse ricadute
assai perniciose: 1) le correlazioni stabilite possono non essere corrette; 2) l’evoluzione
dell’interpretazione giurisprudenziale sarebbe fortemente compromessa. Il ricorso a
28
simili strumenti scoraggerebbe, infatti, il patrocinio di posizioni potenzialmente ‘non
vincenti’. Rischierebbe così di essere depotenziato l’essenziale fattore di evoluzione che
deriva dal tradizionale impegno dell’avvocatura nel promuovere nuovi paradigmi
interpretativi che, scalando la struttura delle corti, arrivano ad affermarsi come
giurisprudenza dominante, di legittimità, e talvolta, a trasformarsi in modifiche
normative; 3) anche nei sistemi continentali che non sono basati sul valore del
precedente, il diffondersi di strumenti di quantitative legal prediction può provocare un
effetto di centralizzazione del valore del precedente. Ciò può indurre il singolo giudice
persona fisica a temere conseguenze di vario genere (disciplinare, civile) per essersi
discostato, con la sua decisione, dall’esito preconizzato dallo strumento predittivo.
L’effetto potrebbe inizialmente indurre un apparentemente neutro onere suppletivo di
motivazione, per distaccarsi dal precedente, come accade negli ordinamenti di common
law, che potrebbe tuttavia progressivamente incidere sul senso di indipendenza del
giudice. Questi, infatti, potrebbe sentirsi, più o meno consciamente, indotto ad aderire
sistematicamente al risultato della predizione.
Alla luce delle suddette osservazioni, bisogna distinguere attentamente il concetto di
conoscibilità dei precetti e di prevedibilità della sanzione, essenziali a soddisfare il
moderno concetto di legalità, da quello di “prevedibilità” della decisione del giudice.
Infatti, se è vero che la più moderna concezione del principio di legalità passa per il
riconoscimento dell’essenzialità della garanzia di conoscibilità del precetto normativo da
seguire e di prevedibilità della sanzione che sarà applicata in caso di accertata
trasgressione, si deve riconoscere che lo scenario evocato dalla quantitative legal
prediction non è ispirato all’attuazione della predetta garanzia o che, quantomeno, pu
sovrapporvi effetti contrari e perniciosi.
Sempre con riferimento alla giurisdizione, centrale appare il ruolo del processo
amministrativo, destinato a divenire, ad un tempo, il luogo del sindacato sul potere
dell’amministrazione che si serve di algoritmi e il luogo dell’esame del corretto esercizio
dell’eventuale potere del sistema pubblico di regolare e conformare l’uso, da parte dei
soggetti privati, dell’intelligenza artificiale.
Sotto il primo profilo, assume particolare rilievo il sindacato sulle c.d decisioni
algoritmiche dell’amministrazione. Pur nelle comprensibili oscillazioni, la giurisprudenza
amministrativa, come sopra visto, ha già avuto modo di precisare le condizioni
fondamentali per assicurare la qualità di tali decisioni. Quel che val la pena di
sottolineare è che, ai fini della legittimità del provvedimento basato sull’utilizzazione
degli algoritmi, deve essere assicurata una piena accessibilità di questi ultimi –
assimilabili ad un concetto tecnico e non ad un concetto giuridico indeterminato – alla
loro formazione e alla loro evoluzione, anche con riferimento alla loro provenienza.
Sotto il secondo profilo, deve essere osservato che esso riguarda uno scenario ancora
lontano dall’essere realizzato. Quel che forse, in questa sede, pu essere anticipato è
che potrà costituire un utile ausilio la giurisprudenza del giudice amministrativo
sull’attività di regolazione, che richiede un supplemento di partecipazione, anche in
funzione di controllo dei soggetti interessati (c.d legalità procedurale) e sul sindacato
29
delle valutazioni tecniche. Mediante tale sindacato, difatti, potrà essere valutata con
attenzione la maggiore attendibilità delle scelte operate dall’autorità amministrativa.

11. Bibliografia

Abraham, K.S.-Rabin, R.L., Automated Vehicles and Manufacturer Responsibility for


Accidents: A New Legal Regime for a New Era, in 105 Virginia Law Review, 2019, p. 127
ss.
Balp, G.-Strampelli, G., Preserving Capital Markets Efficiency in the High-Frequency
Trading Era, in 1 University of Illinois Journal of Law, Technology & Policy, 2018, p. 349
ss.
Barlow, J.P., A Declaration of Independence of the Cyberspace, Electronic Frontier
Foundation, 1996
Bassini, M.-Pollicino, O., Liguori, L., Sistemi di Intelligenza Artificiale, responsabilità e
accountability. Verso nuovi paradigmi?, in Pizzetti, F. (a cura di), Intelligenza artificiale,
protezione dei dati personali e regolazione, Giappichelli, 2018, p. 333 ss.
Casey, A.J.-Niblett, A., The Death of Rules and Standards, in 92 Indiana Law Journal,
2017, p. 1401 ss.
Casonato, C., Intelligenza artificiale e diritto costituzionale: prime considerazioni, in
Diritto pubblico comparato ed europeo, fascicolo Speciale, maggio 2019, p. 101 ss.
Chagal-Feferkorn, K.A., The Reasonable Algorithm, in 1 University of Illinois Journal of
Law, Technology & Policy, 2018, p. 111 ss.
Costanzo, P., Il fattore tecnologico e le trasformazioni del costituzionalismo, in Rassegna
Parlamentare, 4, 2012, p. 811 ss.
De Gregorio, G., From Constitutional Freedoms to the Power of the Platforms: Protecting
Fundamental Rights Online in the Algorithmic Society, in 11(2) European Journal of Legal
Studies, 2019, p. 65 ss.
Durovic, M.-Janssen, A., The Formation of Blockchain-based Smart Contracts in the Light
of Contract Law, in 26 European Review of Private Law, 2018, p. 753 ss.
Estlund, C., What Should We Do After Work? Automation and Employment Law, in 128
Yale Law Journal, 2018, p. 254 ss.
Geistfeld, M.A., A Roadmap for Autonomous Vehicles: State Tort Liability, Automobile
Insurance, and Federal Safety Regulation, in 105 California Law Review, 2017, p. 1611 ss.
Hallevy, G., The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to
Legal Social Control, in 4(2) Akron Intellectual Property Journal, 2016, p. 171 ss.
Johnson D.-Post. D., Law and borders: The rise of law in cyberspace, in 48(5) Stanford
Law Review, 1996, p. 1367 ss.
Kaminski, M., The Right to Explanation, Explained, in 34(1) Berkeley Technology Law
Journal, 2019, p. 143 ss.
Lessig, L., Code and other Laws of Cyberspace, Basic Books, 1996
Luciani, M., La decisione giudiziaria robotica, in Rivista AIC, 3, 2018, p. 872 ss.

30
Ortolani, P., The impact of blockchain technologies and smart contracts on dispute
resolution: arbitration and court litigation at the crossroads, in Uniform Law Review,
2019, p. 1 ss.
Pagallo, U., The Laws of Robots, Springer, 2013
Pariser, E., The Filter Bubble: What the Internet Is Hiding from You, Penguin, 2011
Pizzetti, F. (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione,
Giappichelli, 2018
Pollicino, O., L’efficacia orizzontale dei diritti fondamentali previsti dalla Carta La
giurisprudenza della Corte di giustizia in materia di digital privacy come osservatorio
privilegiato, in Rivista di diritto dei media, 3, 2018, p. 138 ss.
Pollicino, O.-Bassini, M., The Law of the Internet between Globalisation and Localisation,
in Maduro, M.P.-Tuori, K.-Sankari, S. (eds.), Transnational Law: Rethinking European Law
and Legal Thinking, Cambridge, 2014, p. 346 ss.
Reidenberg, J. R., Lex Informatica: The Formulation of Information Policy Rules through
Technology, in 76 Texas Law Review 1997, p. 553 ss.
Sartor, G., Cognitive automata and the law: Electronic contracting and the intentionality
of software agents, in 17(4) Artificial Intelligence and Law 2009, p. 253 ss.
Savelyev, A., Contract Law 2.0: «Smart» Contracts as the Beginning of the End of Classic
Contract Law, Higher School of Economics Research Paper No. WP BRP 71/LAW/2016
Simoncini, A., L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà,
in BioLaw Journal – Rivista di BioDiritto, 1, 2019, p. 63 ss.
Sunstein, C., Republic.com 2.0, Princeton University Press, 2009
Szabo, N., Formalizing and Securing Relationships on Public Networks, in 2(9) First
Monday, 1 September 1997
Teubner, G., Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer
Softwareagenten, in 218 Archiv für die civilistische Praxis, 2018, p. 155 ss.
Teubner, G., Societal Constitutionalism: Alternative to State-Centred Constitutional
Theory? in Joerges, C.-Sand, I.-Teubner, G., Transnational Governance and
Constitutionalism, Hart, 2004
Wachter S., Mittelstadt B. and Floridi L., Why a Right to Explanation of Automated
Decision-Making Does Not Exist in the General Data Protection Regulation, in 7(2)
International Data Privacy Law, 2017, p. 76 ss.
Wagner, G., Produkthaftung für autonome Systeme, in Archiv für die civilistische Praxis
217, 2017, p. 708 ss.

12. Princìpi-guida

1. Dignità – La dignità dell’individuo costituisce il caposaldo su cui si fonda la società


dell’algoritmo. La relazione tra uomo e macchina è incardinata sul principio di
dignità che impedisce alla tecnologia di marginalizzare l’individuo ponendolo in una
situazione di soggezione.

31
2. Divieto di discriminazione – In nessun caso, l’utilizzo dell’intelligenza artificiale
deve condurre a forme ingiustificate di discriminazione diretta e indiretta,
specialmente quando basata su caratteristiche quali la razza, il colore, la lingua, la
religione o le convinzioni, la nazionalità o l’origine nazionale o etnica, nonché
l’ascendenza, l’età, la disabilità, il sesso, l’identità di genere, l’orientamento
sessuale.

3. Trasparenza – I sistemi di intelligenza artificiale devono assicurare la trasparenza


dei propri processi intesa come comprensibilità per l’individuo e non soltanto come
spiegazione dettagliata del processo algoritmico. In tal senso, le tecnologie devono
essere sviluppate in modo che i soggetti pubblici e privati siano in grado di fornire
all’individuo quegli elementi di comprensione tali da renderlo consapevole
dell’impatto dell’utilizzo di tali tecnologie sulle proprie libertà e diritti.

4. Accountability – La complessità dell’intelligenza artificiale non pu costituire una


giustificazione che conduca a una deresponsabilizzazione in capo agli attori che
fanno uso di tali tecnologie. È opportuno che sia individuato un centro
d’imputazione sul quale l’individuo pu fare affidamento quando l’impiego di
decisioni automatizzate influenza i propri diritti e libertà fondamentali.

5. Libertà d’espressione – La libertà di espressione costituisce uno dei fondamenti sui


cui si basano le società democratiche. L’impiego di sistemi di intelligenza artificiale
per la gestione delle informazioni e dei contenuti deve evitare forme di
polarizzazione e esclusione che possano minare la possibilità per l’individuo di
comprendere e partecipare in una società democratica. L’utilizzo di tali sistemi deve
tendere al rispetto della libertà di ogni individuo di esprimere il proprio pensiero e il
suo diritto a informare e informarsi.

6. Privacy e protezione dei dati personali – L’utilizzo di tecnologie ubiquitarie e


l’impiego massivo di dati mettono a rischio la tutela della privacy e dei dati
personali. I principi di privacy by design e by default costituiscono la guida per i
soggetti coinvolti nell’attività di trattamento dati al fine di assicurare il rispetto dei
dati personali attraverso la predisposizione di misure tecniche e organizzative
adeguate, volte ad attuare in modo efficace i principi di protezione dei dati (by
design), nonché a garantire che siano trattati, per impostazione predefinita, solo i
dati personali necessari per ogni specifica finalità del trattamento (by default).

7. Giustiziabilità – Avverso le decisioni automatizzate che riguardano diritti e libertà


fondamentali dell’individuo devono essere previsti meccanismi di ricorso pubblici
e/o privati attraverso cui l’individuo possa chiedere e, eventualmente, ottenere la
revisione o la temporanea sospensione di un’eventuale decisione automatizzata.

32
8. Pubblica amministrazione – L’utilizzo di sistemi di intelligenza artificiale da parte
della Pubblica amministrazione non deve mirare soltanto a esigenze di efficienza
dell’attività amministrativa, ma essere strumento attraverso cui migliorare i
processi amministrativi e interfacciarsi con l’individuo nel rispetto dei principi di
legalità, trasparenza e correttezza.

9. Regolamentazione – La regolamentazione dei sistemi di intelligenza artificiale deve


mirare alla tutela dell’individuo al fine di evitare qualsiasi deriva tecnocratica o
mercantilista. La tutela di altre libertà e diritti, quali la libertà d’impresa, devono
essere parametrate rispetto alla necessità che l’individuo non sia soggiogato alla
tecnica ma sia parte attiva del progresso umano e scientifico.

10. Soggettività - Diversamente rispetto ai soggetti che attualmente intrattengono


rapporti nell’ambito del diritto privato, il robot dotato di intelligenza artificiale non
persegue un proprio interesse. L’interesse è pur sempre riconducibile a un diverso
soggetto, inteso in senso tradizionale, che si avvale degli strumenti messi a
disposizione dell’intelligenza artificiale. Non sussiste dunque la necessità di creare
nuovi soggetti giuridici. La tecnologia e l’intelligenza artificiale sono (e devono
permanere) al servizio dei soggetti giuridici intesi in senso tradizionale.

11. Smart contracts e tecnologia blockchain - Non corrisponde al vero che il codice si
sostituirà al diritto; il diritto continuerà ad essere applicabile. Eventuali falle nei
sistemi operativi potrebbero agevolare fraudolente manomissioni da parte di
soggetti terzi, che richiederebbero l’applicazione delle norme sulla responsabilità.
Inoltre, non può escludersi che uno smart contract violi norme imperative o che
venga concluso da un soggetto incapace di agire.

12. Effettività - Le procedure di esecuzione automatizzata dei contratti e delle norme


possono comportare un aumento dell’effettività del diritto. Il fenomeno riguarda,
ad esempio, la compensazione pecuniaria alla quale è tenuto il vettore aereo, in
caso di ritardo o cancellazione del volo, ai sensi dell’art. 5, par. 3, del Regolamento
CE n. 261/2004. Rendendo la tecnologia degli smart contracts obbligatoria per i
vettori aerei, sarebbe possibile assicurare ai consumatori gli indennizzi in via
automatica.

13. Granularità - Le nuove tecnologie potrebbero apportare un significativo


miglioramento delle norme giuridiche, rendendole più adeguate alla soluzione del
caso concreto. Con l’avvento dei big data, i software potrebbero modellare le norme
giuridiche sulla base delle peculiarità di ogni singolo consociato (c.d. “granular
norms”). Ciò potrebbe determinare il superamento dell’utilizzazione di standard e
clausole generali nel diritto privato.

33
14. Mercati - I processi decisionali algoritmici assumono rilievo nel contesto dei mercati
attraverso la pratica del c.d. “high-frequency trading” (HFT). La pericolosità dell’HFT
è testimoniata da interventi normativi volti a porre un freno alle relative attività
speculative e a garantire una certa trasparenza con riferimento alle modalità
operative. Sotto questi profili, deve essere valutata con attenzione la revisione della
direttiva europea, c.d. MiFID II (Markets in Financial Instruments Directive) e
ulteriori regolamenti attuativi, che obbligano gli high frequency traders a registrarsi
come imprese di investimento e a rendere pubblici i loro algoritmi, fornendo
garanzie sull’attendibilità dei loro software.

15. Responsabilità civile - La tutela risarcitoria dovrebbe continuare a garantire una


certa carica deterrente nei confronti dei possibili tortfeasors e, al contempo,
rispondere all’esigenza di indennizzare adeguatamente i soggetti danneggiati. Le
nuove tecnologie rendono necessaria l’elaborazione di parametri per attribuire la
responsabilità in capo al danneggiante e, posta la diversa gestione del rischio,
impongono ai giuristi di ripensare alcune norme concernenti la responsabilità
oggettiva.

16. Colpevolezza - Per quanto attiene ai parametri di riferimento per attribuire la


responsabilità, si tratta di valutare la condotta di sistemi in grado di apprendere
autonomamente e di decidere sulla base dei dati raccolti. Un primo parametro
utilizzabile è quello relativo alle capacità umane. Le capacità dell’uomo potrebbero
costituire – almeno nel primo periodo – una soglia minima di “diligenza” richiesta al
sistema operativo. In prospettiva, si potrebbe sviluppare un parametro autonomo
per i sistemi intelligenti, diverso a seconda del settore preso in esame. Anche i dati
statistici concernenti le attività esercitate da software dotati di intelligenza
artificiale potrebbero giocare un ruolo significativo.

17. Product liability - Rispetto alle nuove tecnologie, le norme di conio europeo,
contenute nella direttiva 85/374/CEE sulla responsabilità del produttore, appaiono
inadeguate poiché si riferiscono a tecnologie obsolete e non chiariscono con
precisione in quali casi un sistema operativo in grado di apprendere
autonomamente è da considerare difettoso.

18. Veicoli a guida autonoma - Un ambito peculiare è quello della responsabilità da


circolazione di veicoli a guida autonoma. In un primo periodo, le attuali norme
relative alla responsabilità da circolazione di veicoli, assistite dalla previsione
dell’assicurazione obbligatoria, potrebbero continuare a fornire una
regolamentazione soddisfacente. In prospettiva futura, occorrerà riflettere su
nuove forme di responsabilità che coinvolgano maggiormente i produttori delle
vetture. Questi ultimi sono infatti i soggetti che immettono i sistemi operativi.

34
19. Processo – L’opacità che ancora contraddistingue i sistemi di intelligenza artificiale
rischia di determinare, anche nelle applicazioni a carattere predittivo, conseguenze
pregiudizievoli in ambito processuale, dove il principio della parità delle armi e il
rispetto dei diritti fondamentali devono continuare a operare come nucleo
inalienabile.

20. Sindacabilità – Per assicurare un sindacato sulle decisioni algoritmiche della


pubblica amministrazione occorre assicurare piena accessibilità degli algoritmi (da
intendersi come concetto tecnico, e non solo giuridico), in particolare in relazione
alle fasi di formazione, evoluzione e anche con riferimento alla loro provenienza.

35

Potrebbero piacerti anche