Page 10 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 10

MARZIA GAIA MARZANO





               numerosi studi di psicologia cognitiva che hanno dimostrato come le decisioni
               umane - anche quelle che riteniamo essere state prese nel modo più razionale
               possibile- sono per lo più il frutto di un uso inconsapevole (ma preponderante) di
               processi  mentali  automatici,  intuitivi  ed  associativi  spesso  viziati  da  errori
                                  21
               cognitivi (c.d. biases) .
                  Se a tanto si aggiunge che l’attitudine ad incorrere nelle trappole cognitive è
               destinata ad aumentare allorquando un’attività lavorativa di tipo intellettuale si
               protrae ininterrottamente per un certo lasso di tempo a causa dell’affaticamento
                                                                22
               delle aree cognitive coinvolte nel pensiero razionale , si comprende facilmente
               l’interesse  che  l’utilizzo  dell’IA  nella  fase  decisoria  suscita  tra  gli  studiosi  del
               diritto.
                  Tali  strumenti,  in  definitiva,  non  opererebbero  in  modo  così  diverso  dal
               cervello umano ma, a differenza di questo, avrebbero il pregio di non emettere
               decisioni condizionate da biases e non risentirebbero neppure della stanchezza
               mentale .
                       23


               4. … ed i rischi legati al suo utilizzo

                  Se il discorso in parola si arrestasse a quanto fin ora affermato, si dovrebbe
               concludere nel senso di incoraggiare l’utilizzo dei sistemi di IA in fase decisoria
               in quanto questi si presterebbero ad iniettare una certa dose di virtuosismo nel
               sistema penale.
                  Tuttavia,  mentre  è  innegabile  che  il  ricorso  alla  giustizia  predittiva
               consentirebbe di ridurre notevolmente i tempi del processo, non è altrettanto vero
               che questa sarebbe sempre in grado di restituire decisioni migliori di quelle prese
               interamente dai giudici in carne ed ossa.
                  Il primo limite degli strumenti automatici di ausilio alla decisione giudiziaria
               è già emerso nell’esperienza giuridica d’oltreoceano, ove l’ormai notissimo caso




                  21  Per un approfondimento sul modo in cui le trappole cognitive sono destinate ad influenza il
               ragionamento giuridico, si rinvia a: FORZA, MENEGON, RUMIATI, Il giudice emotivo. La decisione tra
               ragione ed emozione, Bologna, 2017.
                  22 ibidem, pp. 123 e ss. che riportano uno studio condotto da alcuni ricercatori della Columbia
               University  in  collaborazione  con  l’Università  di  Tel  Aviv,  all’esito  del  quale  è  emerso  che  la
               tendenza dei giudici ad emettere decisioni favorevoli è maggiore all’inizio della giornata lavorativa,
               mentre scema via via che il tempo trascorre, salvo poi ritornare all’apice a seguito di una pausa.
                  Si veda anche NIEVA-FENOLL, Inteligencia artificial y proceso judicial, trad. it., Intelligenza artificiale
               e processo, Torino, 2019, pp. 32 e ss.
                  23  In argomento si veda DI GIOVINE, Il Judge-Bot e le sequenze giuridiche in materia penale, cit., p.
               956 che, alludendo allo studio riportato nella nota 22), afferma che se davvero il giudice-Robot
               rappresentasse una garanzia rispetto ad errori e biases e se fosse vero che la giustizia dipende da ciò
               che i «i giudici mangiano (o non mangiano) acquisterebbe senso ricorrere all’IA, perché diverrebbe
               ragionevole supporre che in tal modo si potrebbe assicurare una giustizia migliore».


                                                   132
   5   6   7   8   9   10   11   12   13   14   15