L’ascesa della “A.I. Slop” in tribunale: avvocati e vigilantes combattono la giurisprudenza fabbricata

86

La professione legale è alle prese con un problema crescente: la crescente frequenza di errori generati dall’intelligenza artificiale (A.I.), in particolare la fabbricazione di citazioni giurisprudenziali, nei documenti giudiziari. È emersa una rete crescente di avvocati, che agiscono come “vigilanti legali”, per denunciare e documentare questi casi di “slop dell’intelligenza artificiale”, sollevando preoccupazioni sull’integrità del sistema legale e sulla reputazione dell’ordine degli avvocati.

Il problema delle citazioni inventate

La questione ha cominciato ad acquisire importanza all’inizio di quest’anno, quando un avvocato in un caso di bancarotta del Texas ha citato un caso inesistente chiamato Brasher v. Stewart. Il giudice, accusando l’avvocato per l’errore, ha imposto sei ore di sorveglianza all’A.I. formazione e lo deferirono alla commissione disciplinare dell’Ordine degli Avvocati di Stato. Questo incidente ha evidenziato una tendenza preoccupante: i chatbot spesso generano informazioni imprecise, comprese citazioni di giurisprudenza completamente inventate, che vengono poi incorporate nei documenti legali.

L’ascesa dei vigilanti legali

In risposta, un gruppo di avvocati ha iniziato a monitorare e documentare questi errori. Robert Freund, un avvocato con sede a Los Angeles, e Damien Charlotin, un avvocato e ricercatore in Francia, stanno guidando gli sforzi per creare database pubblici per mostrare questi casi. Loro e altri utilizzano strumenti legali come LexisNexis e parole chiave come “intelligenza artificiale”, “casi inventati” e “casi inesistenti” per trovare e segnalare questi errori, spesso scoperti trovando le opinioni dei giudici che rimproverano pubblicamente gli avvocati. Ad oggi, hanno documentato oltre 500 casi di A.I. abuso.

Perché è importante

Stephen Gillers, professore di etica alla School of Law della New York University, ritiene che questi errori stiano danneggiando la reputazione dell’Ordine degli avvocati, aggiungendo che gli avvocati dovrebbero vergognarsi delle azioni dei loro colleghi. L’adozione diffusa dei chatbot – strumenti che molte aziende stanno sperimentando – insieme alla necessità generalmente condivisa da parte degli avvocati di garantire l’accuratezza dei loro documenti, crea un ambiente difficile.

Un’arma a doppio taglio: A.I. Assistenza ed errore umano

Sebbene i chatbot possano essere strumenti preziosi, aiutando gli avvocati e persino i litiganti pro se (“quelli che rappresentano se stessi”) ad articolare argomenti legali in modo efficace, il potenziale di errore è significativo. Jesse Schaefer, un avvocato con sede nella Carolina del Nord, osserva che i chatbot possono aiutare le persone a “parlare in un linguaggio che i giudici capiranno”, anche con le loro insidie.

Tuttavia, il problema deriva sempre più dai professionisti legali che si affidano all’A.I. senza sufficiente verifica. Le conseguenze possono essere gravi, come si è visto nel caso di Tyrone Blackburn, un avvocato di New York che è stato multato di 5.000 dollari per aver incorporato numerose allucinazioni e invenzioni in memorie legali generate da A.I. Successivamente il suo cliente lo ha licenziato e ha presentato una denuncia all’ordine degli avvocati.

L’impatto limitato delle sanzioni attuali

Nonostante il problema crescente, le sanzioni ordinate dai tribunali devono ancora fungere da deterrente significativo. Robert Freund ritiene che il persistere di questi errori dimostri che le conseguenze attuali sono insufficienti. I vigilantes legali sperano che la visibilità offerta dai cataloghi pubblici aumenti la responsabilità e incoraggi una maggiore cautela nell’utilizzo dell’intelligenza artificiale.

Il futuro dell’intelligenza artificiale e pratica legale

Peter Henderson, professore di informatica all’Università di Princeton, sta lavorando su metodi per identificare direttamente le citazioni false, andando oltre la dipendenza dalle ricerche di parole chiave. In definitiva, lui e altri sperano che una maggiore consapevolezza e i progressi tecnologici contribuiranno a mitigare il problema dello “slop dell’intelligenza artificiale” e a preservare l’integrità del sistema legale.

“Mi piace condividere con i miei lettori piccole storie come questa”, ha detto Eugene Volokh, professore di diritto all’Università della California, a Los Angeles. “storie di follia umana”.

In conclusione, l’aumento degli errori generati dall’intelligenza artificiale nei documenti legali rappresenta una sfida significativa per la professione legale. L’emergere di vigilantes legali, insieme alla continua ricerca sui metodi di rilevamento, suggerisce un impegno crescente nell’affrontare questo problema e nel salvaguardare l’accuratezza e l’affidabilità dei procedimenti legali. La comunità legale deve lavorare attivamente per comprendere i limiti di questi strumenti e dare priorità alla supervisione umana per prevenire questi errori costosi e dannosi