Page 20 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 20

MARZIA GAIA MARZANO





               processo decisionale umano, il sistema automatico tende, nel tempo, a catturare
               la decisione stessa» sia perché «solleva il decisore dal burden of motivation, dal peso
               dell’esame e della motivazione» sia perché «gli consente di “qualificare” la propria
               decisione  con  il  crisma  di  scientificità  (…)  che  oggi  circonda  la  valutazione
                           63
               algoritmica» .
                  Non  può  cioè  escludersi  che  sia  proprio  la  responsabilità  del  decidere  a
               garantire la bontà del sistema e che la tenuta della giustizia penale sia da attribuire
               – almeno parzialmente – alla consapevolezza propria di ciascun “giudice uomo”
               di  essere  chiamato  ad  esercitare  un  compito  idoneo  a  produrre  conseguenze
               spesso  irreversibili  per  la  vita  dei  suoi  simili.  Da  questo  punto  di  vista,
               l’introduzione  delle  macchine,  essendo  idonea  a  causare  una  parziale
               deresponsabilizzazione  del  decidente,  potrebbe  inconsapevolmente  rendere  il
               giudice meno sensibile al peso delle conseguenze che la sua attività comporta sulle
               vite altrui e, quindi, più facilmente incline ad adottare soluzioni rigorose anche in
               presenza di casi “dubbi”.
                  In altri termini, quantomeno con riferimento al momento decisorio in senso
               stretto (i.e. quello che attiene alla fase di accertamento della responsabilità penale,
               della sussistenza di eventuali circostanze, ecc.), è proprio l’accentuato rischio di
                                 64
               un “effetto gregge”  a rendere tendenzialmente inaccettabile l’integrazione tra
               decisione umana e digitale.
                  Per non parlare del rischio di privare – attraverso il ricorso all’IA - il sistema
               giustizia di quel «senso del giusto» che «affonda nel moral sense» che è «l’esatto
               contrario  della  computazione  per  regole»   e  che,  forse  nemmeno  troppo  alla
                                                       65
               lunga, finirebbe con il negargli anche quel residuo consenso sociale di cui ad oggi
               gode, producendo un effetto non giustificabile in nome di una (pur importante ma
               forse  irrealizzabile)  prevedibilità  ed  omogeneità  dell’esito  giudiziario  né
               tantomeno per il perseguimento di esigenze deflattive.
                  Un discorso parzialmente diverso può essere condotto con riferimento agli
               accertamenti  che  implicano  una  valutazione  prognostica  di  carattere
               probabilistico avente ad oggetto la pericolosità sociale di un soggetto. È quanto
               normalmente  accade  in  sede  di  applicazione  di  misure  di  sicurezza,  di
               prevenzione,  di  applicazione  delle  misure  cautelari  (con  riferimento  alla
               valutazione relativa all’esigenza di evitare una recidiva ex art. 274 lett. c) c.p.p.),
               di  concessione  della  sospensione  condizionale  della  pena  ovvero  di  misure
               alternative alla detenzione.
                  In  tutti  questi  casi  assume  rilievo  un  giudizio  caratterizzato  da  un  elevato
               grado di predittività rispetto al quale l’assenza di una metodologia univoca e di
               criteri sufficientemente definiti a livello legislativo per condurre l’accertamento


                  63 Si veda: SIMONCINI, L’algoritmo incostituzionale, cit., p. 81.
                  64  V. Infra par. 4.
                  65  Così DI GIOVINE, Dilemmi morali e diritto penale, Bologna, 2022, p. 187.
                  È sostanzialmente dello stesso avviso anche GARAPON, LASSÈGUE, Justice digitale, cit., p. 278.


                                                   142
   15   16   17   18   19   20   21   22   23