LONDRA (AP) — Un giudice ha affermato che alcuni avvocati hanno citato casi falsi generati dall’intelligenza artificiale nei procedimenti giudiziari in Inghilterra, avvertendo che gli avvocati potrebbero essere perseguiti se non verificassero l’accuratezza delle loro ricerche.
La giudice dell’Alta Corte Victoria Sharp ha affermato che l’uso improprio dell’intelligenza artificiale ha “gravi implicazioni per l’amministrazione della giustizia e la fiducia del pubblico nel sistema giudiziario”.
Nell’ultimo esempio di come i sistemi giudiziari di tutto il mondo si stanno confrontando con la gestione della crescente presenza dell’intelligenza artificiale nei tribunali, Sharp e il suo collega giudice Jeremy Johnson hanno rimproverato gli avvocati in due casi recenti in una sentenza di venerdì.
Sono stati chiamati a pronunciarsi dopo che i giudici di tribunale di grado inferiore hanno sollevato preoccupazioni circa “il sospetto utilizzo da parte degli avvocati di strumenti di intelligenza artificiale generativa per produrre argomentazioni legali scritte o dichiarazioni di testimoni che non vengono poi verificate”, portando alla presentazione di false informazioni alla corte.
In una sentenza scritta da Sharp, i giudici hanno affermato che in una causa da 90 milioni di sterline (120 milioni di dollari) per una presunta violazione di un accordo di finanziamento che coinvolgeva la Qatar National Bank, un avvocato ha citato 18 casi inesistenti.