Breaking News >> News >> Il Tempo


Un algoritmo al posto dei giudici? Il dilemma dell'intelligenza artificiale


Link [2022-06-19 12:00:39]



«Io sono innocente. Spero dal profondo del cuore che lo siate anche voi»:lo disse Enzo Tortora nel 1986, rivolgendosi ai giudici, prima del verdetto che, dopo un'accusa ingiustamente patita, lo avrebbe visto assolto aldilà di ogni ragionevole dubbio; una dichiarazione che sottintendeva l'accorato auspicio di una giustizia giusta. Cosa provocherà, invece,tra qualche anno, l'avvento dell'intelligenza artificiale (AI) nelle aule di giustizia? Sarà ancora possibile, per i giudici, percepire il pathos dell'imputato, cogliere la falsità di quel testimone che, con fare incerto, cerchi di proporre la sua verità? Si pensa che quella branca dell'intelligenza artificiale che prende il nome di Predictivity Tecnology (o Giustizia Predittiva) sarà presto in grado di prevedere decisioni giurisdizionali attraverso semplici algoritmi, elaborando, cioè, una serie di dati secondo criteri inseriti dall'uomo. E, se i benefici di questa nuova tecnologia sono evidenti e facilmente prevedibili (alludo ad una radicale riduzione dei tempi della giustizia), parimenti evidenti sono gli aspetti negativi, come emerge dall'analisi dei progetti e delle applicazioni, in tema di intelligenza artificiale riferita alla giustizia, che si stanno diffondendo nei vari paesi.

 

 

Negli Usa, dove circa 3 cittadini su 100 sono soggetti ad una qualche forma di detenzione, sono stati ideati gli algoritmi finalizzati a valutare il rischio criminale di un soggetto, sulla base di alcuni fattori (età, sesso, etnia, situazione familiare, ecc.), con una conseguente e ingiusta discriminazione nei confronti delle fasce più deboli e delle minoranze etniche, che ha portato ad etichettare il sistema come razzista, a maggior ragione per il fatto che i criteri di valutazione sono gestiti da società private. In Europa è stata emanata la Carta Etica Europea la quale, già di per se, delinea i confini entro cui costruire gli algoritmi in tutti i settori della AI, stabilendo alcuni principi (riservatezza dei dati, non discriminazione, trasparenza, imparzialità ed equità) che sulla carta sono sacrosanti. È, tuttavia, in tema di giustizia, quando, cioè, si è discussa la proposta di Regolamento sulla Giustizia Artificiale, che sono emerse le magagne. Mancano, infatti, i divieti, come ad esempio il divieto di punteggi sociali, status, etnia ecc., il divieto al giudice di delegare le decisioni all'AI, il divieto di adottare sistemi di polizia predittiva, sulla scorta dell'esperienza americana. Anche in Italia sono stati fatti vari tentativi più consoni al nostro modello giudiziario. La Cassazione ha avviato un progetto con l'Università di Pavia per la «valorizzazione del patrimonio conoscitivo rappresentato dal corpus giurisprudenziale e normativo» in suo possesso, attraverso la tecnologia di legal analytics, che servirà ai giudici come ausilio alle loro decisioni sempre più rispettose dei precedenti della Corte.

 

 

Sembra quindi che qualcosa si muova, ma è comunque opportuno approcciare il rapporto dell'IA con la Giustizia non solo nell'osservanza della Carta Etica Europea, ma prevedendo ulteriori stones, tipicamente italiani: che sia il pubblico, e non il privato, a determinare i criteri e a rendere trasparenti i percorsi di valutazione dei dati; che l'IA sia uno strumento di esclusivo ausilio di conoscenza per i giudici e che non possa essere adottato per la fase decisionale; che siano definiti puntualmente i divieti relativi all'uso della IA nella giustizia, in particolare per quanto concerne la giurisdizione penale. Pertanto, sebbene il pericolo di un ologramma che scandisca una sentenza sulla base di semplici algoritmi non sia ipotizzabile nel breve periodo, nel nostro paese l'uso dell'Intelligenza Artificiale nella giustizia deve tassativamente prevedere che la decisione rimanga nell'esclusiva competenza del Giudice. Piero Calamandrei disse «Vogliamo dei giudici con l'anima...»: ecco, vorremmo essere giudicati, nel bene e nel male, da uomini fallibili, ma umani, che arrivino a comprendere l'innocenza o la colpevolezza di chi sono chiamati a giudicare anche grazie all'ascolto di frasi simili a quella pronunciata da Enzo Tortora. Solo a queste condizioni si potrà parlare di Giustizia predittiva etica e responsabile.

 



Most Read

2024-11-05 15:45:39