Un avvocato si scusa per avere citato casi e precedenti inesistenti generati dall'IA in un processo per omicidio in Australia

Un avvocato australiano è stato costretto a scusarsi, per avere usato impropriamente l'intelligenza artificiale nei documenti presentati durante un caso d'omicidio, che contenevano riferimenti a precedenti inesistenti.
Il legale, Rishi Nathwani, che detiene il titolo di King's Counsel riservato ad avvocati e giuristi di maggiore competenza ed esperienza in Australia, si è assunto la "piena responsabilità" per avere inserito informazioni errate nelle memorie presentate nel caso di un adolescente accusato di omicidio davanti alla Corte Suprema di Melbourne, nello Stato di Victoria.
"Siamo profondamente dispiaciuti e imbarazzati per quanto accaduto", ha dichiarato mercoledì Nathwani al giudice James Elliott, a nome della difesa.
I documenti falsi includevano citazioni inventate di un discorso al Parlamento statale e riferimenti a casi inesistenti che si dicevano giudicati dalla Corte Suprema.
Gli errori sono stati scoperti dai collaboratori di Elliott, che non sono riusciti a trovare i casi e hanno chiesto alla difesa di fornirne delle copie. Gli avvocati hanno ammesso che le citazioni "non esistono" e che la presentazione conteneva "citazioni fittizie", si legge nei documenti del tribunale.
Gli avvocati hanno spiegato di avere controllato le citazioni iniziali e di avere pensato che anche le altre fossero accurate. Giovedì il giudice ha poi stabilito che il cliente di Nathwani, che non può essere identificato perché minorenne, non è colpevole di omicidio per incapacità mentale.
"A rischio di eufemismo, il modo in cui si sono svolti questi eventi è insoddisfacente", ha detto Elliott agli avvocati giovedì, "la possibilità per la corte di fare affidamento sull'accuratezza delle comunicazioni fatte dagli avvocati è fondamentale per la corretta amministrazione della giustizia".
Il giudice ha osservato che la Corte Suprema ha pubblicato l'anno scorso delle linee guida per l'utilizzo dell'intelligenza artificiale da parte degli avvocati.
"Non è accettabile che venga utilizzata l'intelligenza artificiale a meno che il prodotto di tale utilizzo non sia verificato in modo indipendente e approfondito", ha detto Elliott.
Non è il primo caso di allucinazione giudiziaria da IA
In un caso analogo verificatosi negli Stati Uniti nel 2023, un giudice federale ha imposto multe di 5mila dollari (4270 euro) a due avvocati e a uno studio legale che avevano utilizzato ChatGPT con il risultato di presentare ricerche legali fittizie in una richiesta di risarcimento per danni.
Nello stesso anno, altre sentenze fittizie inventate dall'IA sono state citate in documenti legali depositati dagli avvocati di Michael Cohen, ex avvocato personale del Presidente degli Stati Uniti Donald Trump.
Cohen si è assunto la responsabilità dell'accaduto, affermando di non essersi reso conto che lo strumento di Google che utilizzava per le ricerche legali era anche in grado di produrre le cosiddette allucinazioni dell'IA.
Nel Regno Unito una giudice dell'Alta Corte, Victoria Sharp, ha avvertito invece a giugno che fornire materiale falso come se fosse autentico potrebbe essere considerato oltraggio alla corte o, nei "casi più eclatanti", sabotaggio del corso della giustizia, che comporta pene molte severe.
Nella sentenza, che ha fatto seguito a decine di citazioni false generate dall'intelligenza artificiale e presentate ai tribunali in diversi casi nel Regno Unito, Sharp ha dichiarato che la questione solleva "serie implicazioni per la fiducia del pubblico nel sistema giudiziario se l'intelligenza artificiale viene utilizzata in modo improprio".
Today