Page 10 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 10
MARZIA GAIA MARZANO
numerosi studi di psicologia cognitiva che hanno dimostrato come le decisioni
umane - anche quelle che riteniamo essere state prese nel modo più razionale
possibile- sono per lo più il frutto di un uso inconsapevole (ma preponderante) di
processi mentali automatici, intuitivi ed associativi spesso viziati da errori
21
cognitivi (c.d. biases) .
Se a tanto si aggiunge che l’attitudine ad incorrere nelle trappole cognitive è
destinata ad aumentare allorquando un’attività lavorativa di tipo intellettuale si
protrae ininterrottamente per un certo lasso di tempo a causa dell’affaticamento
22
delle aree cognitive coinvolte nel pensiero razionale , si comprende facilmente
l’interesse che l’utilizzo dell’IA nella fase decisoria suscita tra gli studiosi del
diritto.
Tali strumenti, in definitiva, non opererebbero in modo così diverso dal
cervello umano ma, a differenza di questo, avrebbero il pregio di non emettere
decisioni condizionate da biases e non risentirebbero neppure della stanchezza
mentale .
23
4. … ed i rischi legati al suo utilizzo
Se il discorso in parola si arrestasse a quanto fin ora affermato, si dovrebbe
concludere nel senso di incoraggiare l’utilizzo dei sistemi di IA in fase decisoria
in quanto questi si presterebbero ad iniettare una certa dose di virtuosismo nel
sistema penale.
Tuttavia, mentre è innegabile che il ricorso alla giustizia predittiva
consentirebbe di ridurre notevolmente i tempi del processo, non è altrettanto vero
che questa sarebbe sempre in grado di restituire decisioni migliori di quelle prese
interamente dai giudici in carne ed ossa.
Il primo limite degli strumenti automatici di ausilio alla decisione giudiziaria
è già emerso nell’esperienza giuridica d’oltreoceano, ove l’ormai notissimo caso
21 Per un approfondimento sul modo in cui le trappole cognitive sono destinate ad influenza il
ragionamento giuridico, si rinvia a: FORZA, MENEGON, RUMIATI, Il giudice emotivo. La decisione tra
ragione ed emozione, Bologna, 2017.
22 ibidem, pp. 123 e ss. che riportano uno studio condotto da alcuni ricercatori della Columbia
University in collaborazione con l’Università di Tel Aviv, all’esito del quale è emerso che la
tendenza dei giudici ad emettere decisioni favorevoli è maggiore all’inizio della giornata lavorativa,
mentre scema via via che il tempo trascorre, salvo poi ritornare all’apice a seguito di una pausa.
Si veda anche NIEVA-FENOLL, Inteligencia artificial y proceso judicial, trad. it., Intelligenza artificiale
e processo, Torino, 2019, pp. 32 e ss.
23 In argomento si veda DI GIOVINE, Il Judge-Bot e le sequenze giuridiche in materia penale, cit., p.
956 che, alludendo allo studio riportato nella nota 22), afferma che se davvero il giudice-Robot
rappresentasse una garanzia rispetto ad errori e biases e se fosse vero che la giustizia dipende da ciò
che i «i giudici mangiano (o non mangiano) acquisterebbe senso ricorrere all’IA, perché diverrebbe
ragionevole supporre che in tal modo si potrebbe assicurare una giustizia migliore».
132