Page 16 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 16

MARZIA GAIA MARZANO





                  Come  è  stato  osservato,  affinché  tale  divieto  trovi  applicazione,  non  è
               necessario  che  anche  la  decisione  sia  automatizzata,  essendo,  per  contro,
               sufficiente  che  ad  essere  automatizzati  siano  le  prove  preparatorie  e  i  giudizi
                           48
               discrezionali .
                  Da tanto deriva il ripudio in materia penale non solo di decisioni interamente
               meccaniche, ma anche di una totale automazione dell’istruttoria dibattimentale,
               con la conseguenza di escludere la possibilità che si realizzi un allontanamento
               dal ritualismo giudiziario, il quale, lungi dall’essere un inutile spreco di tempo e
               di risorse, ha invece il compito di “avvicinare” il giudice alle parti (e le parti al
               giudice)  consentendo  di  conservare  la  funzione  (anche)  sociale  che
                                                              49
               tradizionalmente la giustizia è chiamata a svolgere .
                  Quanto appena affermato, inoltre, non risulta smentito neppure dalle deroghe
               al  divieto  di  un  processo  decisionale  completamente  automatizzato  contenute
               all’interno dell’art. 22 par. 2 GDPR, atteso che lo stesso regolamento al paragrafo
               successivo sancisce il c.d. principio dell’under user control, cioè prescrive che sia
               assicurata in ogni caso la contestabilità della decisione nonché che sia assicurato
               all’interessato, almeno in extrema ratio, il filtro dell’uomo .
                                                                    50
                  La prospettiva assunta a livello comunitario, inoltre, pone al centro il principio
               di trasparenza nella duplice accezione che coinvolge sia l’interesse a che il metodo
               di funzionamento dei sistemi intelligenti impiegati in ambito giudiziario non sia
               coperto da segreto commerciale, sia il versante relativo alla necessità di superare
               l’opacità intrinseca dei sistemi di IA.
                  Sotto  il  primo  profilo,  la  Carta  etica  sottolinea  la  necessità  di  trovare  un
               equilibrio  tra  proprietà  intellettuale  e  necessità  di  conoscere  il  metodo  di
               funzionamento  dei  sistemi  intelligenti  impiegati  in  ambito  giudiziario
               proponendo a tal fine l’introduzione di un sistema di certificazione . Inoltre, l’art.
                                                                            51
               15 lett. h) GDPR stabilisce il diritto dell’interessato a conoscere l’esistenza di un
               processo decisionale automatizzato nonché di ottenere informazioni significative
                                   52
               sulla logica utilizzata .
                  Per ciò che attiene all’altro versante della trasparenza, invece, la prospettiva
               assunta  in  ambito  comunitario  è  volta  a  favorire  il  raggiungimento  di  una
               explainable IA. Più nello specifico, il terzo principio enunciato dalla Carta etica
               pone l’accento sulla necessità che sia garantito un sistema di controllabilità ex post
               del processo decisionale utilizzato dalla macchina nonché di tracciamento dei

                  48 Ibidem, p. 417.
                  49  In questo senso: GARAPON, LASSÈGUE, Justice digitale, cit., pp. 152-153.
                  50  Cfr. DE FELICE, Intelligenza artificiale e processi decisionali automatizzati, cit., p. 418 per il quale
               le  ulteriori  garanzie  sancite  dall’art.  22  par.  3  GDPR  risultano  fondamentali  per  contrastare  la
               delega  incondizionata  al  determinismo  della  tecnologia.  In  senso  contrario,  tuttavia,  si  veda
               ZANICHELLI, Ecosistemi, opacità, autonomia, cit., p. 87 la quale invece afferma che «sembra mancare
               ad oggi una chiara opzione di fondo favorevole ad un’IA che dia supporto e assistenza all’essere
               umano e contraria a un’IA che tenda a sostituirlo».
                  51  Si veda il 4° principio della Carta etica, p. 11.
                  52  Cfr. anche appendice I alla Carta etica, p. 38.


                                                   138
   11   12   13   14   15   16   17   18   19   20   21