Page 16 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 16
MARZIA GAIA MARZANO
Come è stato osservato, affinché tale divieto trovi applicazione, non è
necessario che anche la decisione sia automatizzata, essendo, per contro,
sufficiente che ad essere automatizzati siano le prove preparatorie e i giudizi
48
discrezionali .
Da tanto deriva il ripudio in materia penale non solo di decisioni interamente
meccaniche, ma anche di una totale automazione dell’istruttoria dibattimentale,
con la conseguenza di escludere la possibilità che si realizzi un allontanamento
dal ritualismo giudiziario, il quale, lungi dall’essere un inutile spreco di tempo e
di risorse, ha invece il compito di “avvicinare” il giudice alle parti (e le parti al
giudice) consentendo di conservare la funzione (anche) sociale che
49
tradizionalmente la giustizia è chiamata a svolgere .
Quanto appena affermato, inoltre, non risulta smentito neppure dalle deroghe
al divieto di un processo decisionale completamente automatizzato contenute
all’interno dell’art. 22 par. 2 GDPR, atteso che lo stesso regolamento al paragrafo
successivo sancisce il c.d. principio dell’under user control, cioè prescrive che sia
assicurata in ogni caso la contestabilità della decisione nonché che sia assicurato
all’interessato, almeno in extrema ratio, il filtro dell’uomo .
50
La prospettiva assunta a livello comunitario, inoltre, pone al centro il principio
di trasparenza nella duplice accezione che coinvolge sia l’interesse a che il metodo
di funzionamento dei sistemi intelligenti impiegati in ambito giudiziario non sia
coperto da segreto commerciale, sia il versante relativo alla necessità di superare
l’opacità intrinseca dei sistemi di IA.
Sotto il primo profilo, la Carta etica sottolinea la necessità di trovare un
equilibrio tra proprietà intellettuale e necessità di conoscere il metodo di
funzionamento dei sistemi intelligenti impiegati in ambito giudiziario
proponendo a tal fine l’introduzione di un sistema di certificazione . Inoltre, l’art.
51
15 lett. h) GDPR stabilisce il diritto dell’interessato a conoscere l’esistenza di un
processo decisionale automatizzato nonché di ottenere informazioni significative
52
sulla logica utilizzata .
Per ciò che attiene all’altro versante della trasparenza, invece, la prospettiva
assunta in ambito comunitario è volta a favorire il raggiungimento di una
explainable IA. Più nello specifico, il terzo principio enunciato dalla Carta etica
pone l’accento sulla necessità che sia garantito un sistema di controllabilità ex post
del processo decisionale utilizzato dalla macchina nonché di tracciamento dei
48 Ibidem, p. 417.
49 In questo senso: GARAPON, LASSÈGUE, Justice digitale, cit., pp. 152-153.
50 Cfr. DE FELICE, Intelligenza artificiale e processi decisionali automatizzati, cit., p. 418 per il quale
le ulteriori garanzie sancite dall’art. 22 par. 3 GDPR risultano fondamentali per contrastare la
delega incondizionata al determinismo della tecnologia. In senso contrario, tuttavia, si veda
ZANICHELLI, Ecosistemi, opacità, autonomia, cit., p. 87 la quale invece afferma che «sembra mancare
ad oggi una chiara opzione di fondo favorevole ad un’IA che dia supporto e assistenza all’essere
umano e contraria a un’IA che tenda a sostituirlo».
51 Si veda il 4° principio della Carta etica, p. 11.
52 Cfr. anche appendice I alla Carta etica, p. 38.
138