Page 21 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 21
IANUS - Quaderni 2023 ISSN 1974-9805
66
rischia di far prevalere il metodo intuitivo .
Peraltro, questa incertezza metodologica che induce all’intuizionismo fa sì che
la giurisprudenza tenda a prediligere la misura – tra quelle applicabili –
maggiormente afflittiva: in caso di errore, infatti, si tratterà di un falso positivo
difficilmente verificabile poiché non sarà mai dato sapere se il soggetto, lasciato
in libertà, si sarebbe o meno astenuto dal commettere altri reati.
In questo contesto viene quindi spontaneo chiedersi se il ricorso alle tecniche
di giustizia predittiva – una volta superati i problemi tecnici attualmente esistenti
e di cui si è ampiamente trattato nei paragrafi precedenti – possa giocare un ruolo
in questo ambito.
Il problema più importante, ancora una volta, attiene alla necessità di
scongiurare i rischi connessi all’utilizzo di logiche ciecamente “statistiche” che
non tengono conto delle peculiarità della singola persona.
A tal fine vi è chi in dottrina ha prospettato la possibilità di un utilizzo degli
algoritmi esclusivamente in bonam partem e la cui operatività andrebbe calata
all’interno di un giudizio di tipo bifasico. In tal modo il giudizio algoritmico
consentirebbe, infatti, di mitigare gli effetti della decisione in presenza di una
limitata capacità a delinquere, favorendo altresì l’identificazione del trattamento
più adatto (tra quelli meno afflittivi) alle caratteristiche del soggetto. Al contempo,
però, la previsione di un giudizio bifasico consentirebbe in ogni caso di rispettare
il diritto ad una decisione individualizzata .
67
Inteso in questi termini, l’apporto dell’IA in fase decisoria potrebbe prestarsi –
sia pur con estrema cautela – a produrre effetti benefici in quanto idoneo a rendere
maggiormente oggettivo un giudizio che, allo stato, è privo parametri certi e,
parallelamente, ad incentivare la giurisprudenza a superare i biases di cui spesso
cade vittima in questi settori e che la inducono ad assumere un atteggiamento
particolarmente rigoroso anche a causa del peso collegato alla responsabilità di
dover emettere delle decisioni che (a differenza di quanto accade con riferimento
all’accertamento della responsabilità) sono per natura destinate a guardare al
futuro.
Peraltro, se è vero che la decisione algoritmica è dotata di una forza
persuasiva tale da catturare il decisore umano, l’utilizzo di un sistema in grado
di restituire un esito consistente nella misura meno afflittiva tra quelle
applicabili, unitamente alla previsione che il decisore umano conservi la
possibilità di discostarsi dall’output emesso sulla scorta di una valutazione
individualizzante e previa motivazione, si presterebbe a rendere il trattamento
sanzionatorio lato sensu inteso maggiormente aderente alle finalità rieducative
66 In questo senso: MAUGERI, L’uso di algoritmi predittivi per accertare la pericolosità sociale: una sfida
tra evidence based pratices e tutela dei diritti fondamentali, in Arch. Pen., 1, 2021, p. 7. Si veda anche
p. 9 ove l’Autrice sottolinea che gli algoritmi «progettano una procedura normativa che si sposta da
un insieme di dati verso un output desiderato, escludendo le intuizioni soggettive e l’arbitrarietà del
processo».
67 L’ipotesi di studio è formulata da MAUGERI, op. cit., pp. 29 e ss.
143