Page 11 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 11

IANUS - Quaderni 2023                                        ISSN 1974-9805




                            24
               State v. Loomis   ha dimostrato che non è corretto affermare che il ricorso ad una
               giustizia algoritmica elimina (o almeno riduce) il rischio di una decisione viziata
               da fattori psicologici, politici e culturali, in quanto l’utilizzo di tali sistemi si
               limita  semplicemente  a  spostare  il  problema  in  una  fase  cronologicamente
               antecedente - quella della programmazione – e, parallelamente, solleva quesiti
               giuridici nuovi.
                  Nella vicenda menzionata - ove l’imputato, dopo essere stato condannato ad
               una  pena  che reputava  sproporzionata  per  eccesso  rispetto  all’entità del  reato
               commesso,  aveva  presentato  (senza  successo)  ricorso  alla  Suprema  Corte  del
               Wisconsin – veniva contestato l’utilizzo del sistema COMPAS (un software che
               valuta  il  rischio  “statico”  di  recidivismo)  quale  ausilio  nell’attività  di
               commisurazione della pena .
                                         25
                  Nello specifico, la difesa lamentava l’attitudine del sistema ad emettere output
                                                                26
               viziati da pregiudizi basati sul genere e sulla razza , nonché l’opacità del suo
               funzionamento.
                  Senza scendere nel merito della decisione, in questa sede preme evidenziare
               due aspetti.
                  Il  primo  –  già  parzialmente  anticipato  nell’incipit  del  paragrafo  –  è  che  le
               decisioni  algoritmiche  possono  soffrire  degli  stessi  pregiudizi  che  talvolta
               inficiano  le  decisioni  umane  e  che  sono  veicolati  (spesso  involontariamente)
               all’interno  del  ragionamento  automatizzato  dai  programmatori,  i  quali  sono
               chiamati  a  creare  il  contesto  all’interno  del  quale  il  deep  learning  opera,
               consentendo alle macchine di auto-apprendere .
                                                          27
                  Il secondo, ben più complesso, attiene all’opacità del processo decisionale (c.d.
               black box) ed è destinato a ripercuotersi sulle garanzie del giusto processo.


                  24  State v. Loomis, 881, NW 2d 749 (Wis 2016). Il testo della sentenza è reperibile in calce al
               contributo di CARRIER, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema
               del Wisconsin, in Giurisprudenza Penale Web, 2019, 4.
                  25  Tra i numerosi contributi che fanno riferimento al caso Loomis, si veda: BASILE, Intelligenza
               artificiale e diritto penale, cit., pp. 21 e ss.; QUATTROCOLO, Quesiti nuovi e soluzioni antiche? Consolidati
               paradigmi normativi vs rischi e paure della giustizia digitale “predittiva”, in Cass. pen., 4, 2019, pp. 1748
               e ss.; ID., Equo processo penale e sfide della società algoritmica,  in D’ALOIA (a cura di), Intelligenza
               artificiale e diritto. Come regolare un mondo nuovo, Milano, 2020, pp. 267 e ss., spec. pp. 277 e ss.
                  26   Nello  specifico,  una  ricerca  condotta  nel  2016  su  incarico  dell’ONG  ProPublica  avrebbe
               dimostrato  che  il  sistema  COMPAS  sottostima  il  rischio  di  recidiva  degli  imputati  bianchi  e
               sovrastima  quello  degli  imputati  di  colore  (cfr.  ANGWIN  ET  ALII,  Machine  bias,  in
               https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing,   23
               maggio 2016). A seguito della pubblicazione dei risultati della ricerca condotta dai ricercatori di
               ProPublica, un team di ricercatori di COMPAS ha effettuato un “controstudio” volto a criticare le
               conclusioni  cui  era  giunto  il  precedente  (FLORES, BECHTEL,  LOWENKAMP  , False  Positives,  False
               Negatives, and False Analyses: A Rejoinder to “Machine Bias: There’s Software Used Across the Country to
               Predict Future Criminals. And It’s Biased Against Blacks”, in Federal Probation, vol. 80, n. 2, 2016, pp. 38
               e ss.
                  27  Così CASONATO, Per una intelligenza artificiale costituzionalmente orientata, in D’ALOIA (a cura
               di), Intelligenza artificiale e diritto, cit., pp. 131 e ss., spec. p. 145


                                                   133
   6   7   8   9   10   11   12   13   14   15   16