Page 12 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 12

MARZIA GAIA MARZANO





                  Da questo punto di vista, assume anzitutto rilievo la possibilità che i software
               utilizzati siano coperti da segreto commerciale e che, pertanto, sia impossibile
               accedere  al  codice  sorgente  che  governa  l’algoritmo,  con  la  conseguenza  di
               precludere ab origine la possibilità di conoscere il metodo di elaborazione dei dati
               effettuato dalla macchina e, dunque, di poterlo confutare .
                                                                    28
                  È  quanto  accaduto  nel  caso  Loomis,  ove  la  difesa  lamentava  l’assenza  di
               spiegazioni sui criteri con cui erano stati determinati i punteggi di rischio ed i
               fattori presi in considerazione, ponendo in tal modo a fondamento della decisione
               elementi sottratti alla discovery .
                                           29
                  Come si vedrà nel paragrafo che segue, in Italia è possibile fin da ora escludere
               l’eventualità che si verifichi un caso analogo a quello insorto nel caso “guida”
               oltreoceano  (cioè  che  si  ricorra  a  software  predittivi  coperti  da  segreto
                            30
               commerciale) .
                  Tuttavia,  il  problema  dell’opacità  del  processo  decisionale  effettuato  dagli
               algoritmi è destinato comunque ad assumere rilevanza in quanto l’accessibilità al
               codice sorgente, agli inputs e agli outputs del software non garantisce né al giudice
               che si fa coadiuvare da tali sistemi, né alla parte che è destinata a subirne gli effetti
               la possibilità di trarre autonomamente elementi significativi e comprensibili dal
               sistema.
                  Tale  aspetto,  peraltro,  se  fronteggiato  mediante  il  ricorso  a  strumenti
               processuali, quali la consulenza di parte, finirebbe semplicemente per spostare i
               termini  della  questione  dalla  necessità  di  conoscere  i  meccanismi  di
               funzionamento  del  software  per  poterli  confutare  alla  materiale  e  concreta
               possibilità di farlo.
                  Allo stato, infatti, i sistemi intelligenti sono comprensibili solo da chi li ha
               creati  e  li  gestisce   ed  è  dunque  ragionevole  presumere  che,  in  caso  di
                                  31
               introduzione degli stessi, sarà la parte pubblica (cioè l’accusa) ad avere accesso
               alla scienza e alle tecnologie migliori, salvo che il giudice non ritenga opportuno
               disporre una perizia.
                  L’introduzione di sistemi di giustizia predittiva, pertanto, potrebbe acuire lo
               squilibrio conoscitivo tra le parti del processo, negando di fatto all’imputato la
               possibilità di presentare i propri argomenti in condizioni di parità rispetto all’altra
               parte processuale .
                               32

                  28  Cfr. QUATTROCOLO, Equo processo penale, cit., pp. 278 e ss. La necessità dell’impiego da parte
               dell’amministrazione di utilizzare software c.d. open data in luogo di quelli “proprietari” allo scopo
               di garantire la “conoscibilità” dell’algoritmo è segnalata anche da DONATI, Intelligenza artificiale e
               giustizia, in D’ALOIA (a cura di), Intelligenza artificiale e diritto, pp. 237 e ss. (spec. pp. 249-250).
                  29  ¶6 State v. Loomis, 881, NW 2d 749 (Wis 2016), cit.
                  30  Infra par. 5.
                  31  Per un approfondimento sul problema dell’opacità dei sistemi di Intelligenza artificiale e sui
               pericoli che tale aspetto comporta, si rinvia a: FIORIGLIO, La società algoritmica fra opacità e spiegabilità:
               profili informatico-giuridici, in Ars interpretandi, 1, 2021, pp. 53 e ss. (spec. p. 58).
                  32  Si sofferma sulle conseguenze che il problema della inconfutabilità del dato elaborato
               dall’IA  può  avere  sul principio  di  parità  delle armi  e,  più  in  generale,  del giusto  processo:


                                                   134
   7   8   9   10   11   12   13   14   15   16   17