Page 11 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 11
IANUS - Quaderni 2023 ISSN 1974-9805
24
State v. Loomis ha dimostrato che non è corretto affermare che il ricorso ad una
giustizia algoritmica elimina (o almeno riduce) il rischio di una decisione viziata
da fattori psicologici, politici e culturali, in quanto l’utilizzo di tali sistemi si
limita semplicemente a spostare il problema in una fase cronologicamente
antecedente - quella della programmazione – e, parallelamente, solleva quesiti
giuridici nuovi.
Nella vicenda menzionata - ove l’imputato, dopo essere stato condannato ad
una pena che reputava sproporzionata per eccesso rispetto all’entità del reato
commesso, aveva presentato (senza successo) ricorso alla Suprema Corte del
Wisconsin – veniva contestato l’utilizzo del sistema COMPAS (un software che
valuta il rischio “statico” di recidivismo) quale ausilio nell’attività di
commisurazione della pena .
25
Nello specifico, la difesa lamentava l’attitudine del sistema ad emettere output
26
viziati da pregiudizi basati sul genere e sulla razza , nonché l’opacità del suo
funzionamento.
Senza scendere nel merito della decisione, in questa sede preme evidenziare
due aspetti.
Il primo – già parzialmente anticipato nell’incipit del paragrafo – è che le
decisioni algoritmiche possono soffrire degli stessi pregiudizi che talvolta
inficiano le decisioni umane e che sono veicolati (spesso involontariamente)
all’interno del ragionamento automatizzato dai programmatori, i quali sono
chiamati a creare il contesto all’interno del quale il deep learning opera,
consentendo alle macchine di auto-apprendere .
27
Il secondo, ben più complesso, attiene all’opacità del processo decisionale (c.d.
black box) ed è destinato a ripercuotersi sulle garanzie del giusto processo.
24 State v. Loomis, 881, NW 2d 749 (Wis 2016). Il testo della sentenza è reperibile in calce al
contributo di CARRIER, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema
del Wisconsin, in Giurisprudenza Penale Web, 2019, 4.
25 Tra i numerosi contributi che fanno riferimento al caso Loomis, si veda: BASILE, Intelligenza
artificiale e diritto penale, cit., pp. 21 e ss.; QUATTROCOLO, Quesiti nuovi e soluzioni antiche? Consolidati
paradigmi normativi vs rischi e paure della giustizia digitale “predittiva”, in Cass. pen., 4, 2019, pp. 1748
e ss.; ID., Equo processo penale e sfide della società algoritmica, in D’ALOIA (a cura di), Intelligenza
artificiale e diritto. Come regolare un mondo nuovo, Milano, 2020, pp. 267 e ss., spec. pp. 277 e ss.
26 Nello specifico, una ricerca condotta nel 2016 su incarico dell’ONG ProPublica avrebbe
dimostrato che il sistema COMPAS sottostima il rischio di recidiva degli imputati bianchi e
sovrastima quello degli imputati di colore (cfr. ANGWIN ET ALII, Machine bias, in
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing, 23
maggio 2016). A seguito della pubblicazione dei risultati della ricerca condotta dai ricercatori di
ProPublica, un team di ricercatori di COMPAS ha effettuato un “controstudio” volto a criticare le
conclusioni cui era giunto il precedente (FLORES, BECHTEL, LOWENKAMP , False Positives, False
Negatives, and False Analyses: A Rejoinder to “Machine Bias: There’s Software Used Across the Country to
Predict Future Criminals. And It’s Biased Against Blacks”, in Federal Probation, vol. 80, n. 2, 2016, pp. 38
e ss.
27 Così CASONATO, Per una intelligenza artificiale costituzionalmente orientata, in D’ALOIA (a cura
di), Intelligenza artificiale e diritto, cit., pp. 131 e ss., spec. p. 145
133