Page 13 - Marzia Gaia Marzano - Intelligenza artificiale e decisione penale: quali gli scenari possibili? - IANUS: Diritto e Finanza - Quaderni 2023
P. 13
IANUS - Quaderni 2023 ISSN 1974-9805
Ma vi è di più. La complessità dei moderni sistemi di IA, unitamente alla
capacità di cui questi sono dotati di accedere autonomamente ai dati conoscitivi
e di processarli, rende spesso difficile anche a chi li detiene la comprensione delle
ragioni che hanno indotto la macchina ad emettere un determinato output,
rendendo in concreto imprevedibili e difficilmente spiegabili le decisioni da questa
33
fornite .
In altri termini, la complessità del linguaggio informatico proprio degli
algoritmi genera quello che è stato definito «un analfabetismo di ritorno», atteso
che relega il giurista a un mero fruitore ignorante di un linguaggio di cui gli è
34
preclusa la possibilità di apprendere la grammatica e la sintassi .
La difficoltà di confutare i risultati cui perviene l’algoritmo porta con sé anche
il rischio di aggravare il fenomeno del c.d. “effetto gregge” .
35
Già attualmente, infatti, soprattutto tra i giudici di merito, vi è la tendenza
a replicare le decisioni prese in casi analoghi sulla scorta di una valutazione
che tiene conto, non solo dell’autorevolezza e della correttezza logico
argomentativa del precedente reperito, ma anche del numero di sentenze che
recepiscono – in modo più o meno pertinente rispetto al caso concreto – il
medesimo principio di diritto. Ciò è dovuto ad una serie di concause: in primis,
l’elevato carico di lavoro presente in primo grado ed in appello rende
impossibile uno studio approfondito di tutti i casi da decidere, con la
conseguenza che l’attenzione è destinata a concentrarsi sui processi ritenuti
più “difficili” . In secondo luogo, la tendenza a seguire le decisioni già prese
36
dalla maggioranza è incentivata dalla parziale “deresponsabilizzazione” che
questa comporta, atteso che il magistrato il quale aderisce (a volte
acriticamente) agli orientamenti maggioritari non sarà etichettato come la
“pecora nera” dai suoi colleghi (i quali, peraltro, potrebbero essere chiamati
37
a valutarne l’operato) e, allo stesso tempo, potrà condividere con l’intera
categoria il peso delle (sempre più frequenti) critiche provenienti dall’opinione
pubblica.
Nel contesto appena delineato, è ragionevole desumere che l’introduzione di
strumenti di predizione decisoria quale ausilio sia per i giudici che per le parti del
38
processo spinga inconsapevolmente verso un conformismo generalizzato , oltre
QUATTROCOLO, Equo processo penale, cit., pp. 273 e ss.
33 Si occupa del problema della black box anche: CASONATO, Intelligenza artificiale e giustizia:
potenzialità e rischi, in DPCE Online, 3, 2020, pp. 3369 e ss. (spec. pp. 3376 e ss.).
34 GARAPON, LASSÈGUE, Justice digitale, cit., p. 202.
35 Ibidem, pp. 184 e ss. Si occupa del fenomeno dell’effetto gregge e dell’amplificazione che lo
stesso avrebbe qualora venissero introdotti strumenti di IA quale ausilio all’attività delle parti del
processo penale anche: DI GIOVINE, Il Judge-Bot, cit., pp. 959 e ss.
36 Prendendo le mosse (anche) da questa premessa DI GIOVINE, Il Judge-Bot, cit. introduce la
distinzione tra casi “facili” e “difficili” e si interroga in ordine alla possibilità di utilizzare l’IA in
fase decisoria come ausilio per la decisione di casi “facili”.
37 GARAPON, LASSEGUE, Justice digitale, cit., p. 214.
38 Ibidem p. 176, ove l’Autore afferma che «la logica predittiva genera un sapere sempre più
135