Page 18 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 18
MARZIA GAIA MARZANO
ribadire la necessità di un controllo umano significativo dei sistemi ad alto
rischio, prescrive esplicitamente la necessità che si assicuri non solo la
trasparenza sull’operato di sistemi di IA ma anche la possibilità per gli utenti
56
57
di poter interpretare gli output del sistema in modo adeguato .
Si tratta di una previsione importante, atteso che la sua declinazione in
chiave processuale dovrebbe limitare il rischio che si realizzi quello squilibrio
conoscitivo tra le parti che – come è stato evidenziato nel paragrafo precedente
– andrebbe a violare il principio di parità delle armi e dell’effettività del diritto
di difesa.
È bene aggiungere, per completezza, che un parziale ridimensionamento dei
rischi connessi all’utilizzo dei sistemi di IA in ambito giudiziario non deriva
esclusivamente dall’analisi della normativa e delle politiche adottate in ambito
comunitario. Invero, alcuni spunti di riflessione potrebbero essere tratti anche
dall’analisi del diritto interno – sia vigente che vivente – dal quale si desumono
principi e garanzie che portano ad escludere o comunque a limitare l’utilizzo di
tali strumenti nel caso in cui questi non dovessero essere in grado di
conformarvisi.
A tal proposito, una parte della dottrina ha osservato che «in un sistema come
il nostro, dominato dal principio di sottoposizione del giudice solo alla legge (art.
101 comma 2 Cost.), né gli strumenti predittivi a fini decisori, né gli strumenti di
predizione decisoria sembrano poter determinare effetti vincolanti» . Sulla stessa
58
scia, i giudici del Consiglio di Stato – che per primi sono stati chiamati a
confrontarsi con una decisione emessa sulla base delle risultanze fornite da un
algoritmo (nella specie un provvedimento amministrativo) – hanno affermato che
«l’utilizzo di procedure robotizzate non può essere motivo di elusione dei principi che
conformano il nostro ordinamento» , sicché deve essere contemplata la possibilità
59
che il giudice possa svolgere sul piano umano valutazioni e accertamenti fatti
direttamente in via automatica.
Pertanto, affinché tali sistemi possano trovare ingresso nel nostro
ordinamento, non basta che sia garantita la conoscibilità del codice sorgente,
essendo, per contro, necessario che «la “formula tecnica” che di fatto rappresenta
l’algoritmo sia corredata da spiegazioni che la traducono nella regola giuridica ad essa
sottesa e che la rendono leggibile e comprensibile sia per i cittadini che per il giudice» .
60
D’altro canto, il mancato rispetto dei suddetti principi, specialmente con
riguardo all’applicazione del diritto penale, che è per natura destinato a limitare
56 Ai sensi dell’art. 3 par. 1 lett. 4) della proposta di Regolamento si considera “utente” «qualsiasi
persona fisica o giuridica, autorità pubblica, agenzia o altro organismo che utilizza un sistema di
IA sotto la sua autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività
personale non professionale».
57 Cfr. Considerando 47) e 48) della proposta.
58 Così KOSTORIS, Predizione decisoria e diversion processuale, cit., p. 96.
59 Consiglio di Stato, Sez. VI, 8 aprile 2019, n. 2270 par. 8.2).
60 Ibidem, par. 8.3).
140