Page 12 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 12
MARZIA GAIA MARZANO
Da questo punto di vista, assume anzitutto rilievo la possibilità che i software
utilizzati siano coperti da segreto commerciale e che, pertanto, sia impossibile
accedere al codice sorgente che governa l’algoritmo, con la conseguenza di
precludere ab origine la possibilità di conoscere il metodo di elaborazione dei dati
effettuato dalla macchina e, dunque, di poterlo confutare .
28
È quanto accaduto nel caso Loomis, ove la difesa lamentava l’assenza di
spiegazioni sui criteri con cui erano stati determinati i punteggi di rischio ed i
fattori presi in considerazione, ponendo in tal modo a fondamento della decisione
elementi sottratti alla discovery .
29
Come si vedrà nel paragrafo che segue, in Italia è possibile fin da ora escludere
l’eventualità che si verifichi un caso analogo a quello insorto nel caso “guida”
oltreoceano (cioè che si ricorra a software predittivi coperti da segreto
30
commerciale) .
Tuttavia, il problema dell’opacità del processo decisionale effettuato dagli
algoritmi è destinato comunque ad assumere rilevanza in quanto l’accessibilità al
codice sorgente, agli inputs e agli outputs del software non garantisce né al giudice
che si fa coadiuvare da tali sistemi, né alla parte che è destinata a subirne gli effetti
la possibilità di trarre autonomamente elementi significativi e comprensibili dal
sistema.
Tale aspetto, peraltro, se fronteggiato mediante il ricorso a strumenti
processuali, quali la consulenza di parte, finirebbe semplicemente per spostare i
termini della questione dalla necessità di conoscere i meccanismi di
funzionamento del software per poterli confutare alla materiale e concreta
possibilità di farlo.
Allo stato, infatti, i sistemi intelligenti sono comprensibili solo da chi li ha
creati e li gestisce ed è dunque ragionevole presumere che, in caso di
31
introduzione degli stessi, sarà la parte pubblica (cioè l’accusa) ad avere accesso
alla scienza e alle tecnologie migliori, salvo che il giudice non ritenga opportuno
disporre una perizia.
L’introduzione di sistemi di giustizia predittiva, pertanto, potrebbe acuire lo
squilibrio conoscitivo tra le parti del processo, negando di fatto all’imputato la
possibilità di presentare i propri argomenti in condizioni di parità rispetto all’altra
parte processuale .
32
28 Cfr. QUATTROCOLO, Equo processo penale, cit., pp. 278 e ss. La necessità dell’impiego da parte
dell’amministrazione di utilizzare software c.d. open data in luogo di quelli “proprietari” allo scopo
di garantire la “conoscibilità” dell’algoritmo è segnalata anche da DONATI, Intelligenza artificiale e
giustizia, in D’ALOIA (a cura di), Intelligenza artificiale e diritto, pp. 237 e ss. (spec. pp. 249-250).
29 ¶6 State v. Loomis, 881, NW 2d 749 (Wis 2016), cit.
30 Infra par. 5.
31 Per un approfondimento sul problema dell’opacità dei sistemi di Intelligenza artificiale e sui
pericoli che tale aspetto comporta, si rinvia a: FIORIGLIO, La società algoritmica fra opacità e spiegabilità:
profili informatico-giuridici, in Ars interpretandi, 1, 2021, pp. 53 e ss. (spec. p. 58).
32 Si sofferma sulle conseguenze che il problema della inconfutabilità del dato elaborato
dall’IA può avere sul principio di parità delle armi e, più in generale, del giusto processo:
134