La montée du « A.I. Slop » devant les tribunaux : les avocats et les justiciers combattent la jurisprudence fabriquée

87

La profession juridique est aux prises avec un problème émergent : la fréquence croissante des erreurs générées par l’intelligence artificielle (IA), notamment lors de la fabrication de citations de jurisprudence, dans les dossiers judiciaires. Un réseau croissant d’avocats a émergé, agissant en tant que « justiciers juridiques », pour dénoncer et documenter ces cas de « slop d’IA », soulevant des inquiétudes quant à l’intégrité du système juridique et à la réputation du barreau.

Le problème des citations fabriquées

La question a commencé à prendre de l’importance plus tôt cette année lorsqu’un avocat impliqué dans une affaire de faillite au Texas a cité une affaire inexistante appelée Brasher v. Stewart. Le juge, accusant l’avocat d’avoir commis cette erreur, a ordonné six heures d’écoute d’IA. formation et l’a renvoyé devant le comité de discipline du barreau de l’État. Cet incident a mis en évidence une tendance inquiétante : les chatbots génèrent fréquemment des informations inexactes, notamment des citations de jurisprudence entièrement fabriquées, qui sont ensuite intégrées dans des dossiers juridiques.

La montée des justiciers juridiques

En réponse, un groupe d’avocats a commencé à suivre et à documenter ces erreurs. Robert Freund, avocat basé à Los Angeles, et Damien Charlotin, avocat et chercheur en France, dirigent les efforts visant à créer des bases de données publiques pour présenter ces cas. Eux et d’autres utilisent des outils juridiques comme LexisNexis et des mots-clés tels que « intelligence artificielle », « affaires fabriquées » et « affaires inexistantes » pour détecter et signaler ces erreurs, souvent découvertes en trouvant les opinions des juges réprimandant publiquement les avocats. À ce jour, ils ont documenté plus de 500 cas d’IA. abuser.

Pourquoi c’est important

Stephen Gillers, professeur d’éthique à la faculté de droit de l’Université de New York, estime que ces erreurs nuisent à la réputation du barreau, ajoutant que les avocats devraient avoir honte des actions de leurs collègues. L’adoption généralisée des chatbots – outils expérimentés par de nombreuses entreprises – conjuguée à la nécessité généralement reconnue pour les avocats de garantir l’exactitude de leurs dossiers, crée un environnement difficile.

Une épée à double tranchant : l’IA Assistance et erreur humaine

Même si les chatbots peuvent être des outils précieux, aidant les avocats et même les plaideurs pro se (« ceux qui se représentent eux-mêmes ») à articuler efficacement leurs arguments juridiques, le risque d’erreur est important. Jesse Schaefer, un avocat basé en Caroline du Nord, note que les chatbots peuvent aider les gens à « parler dans une langue que les juges comprendront », même en dépit de leurs pièges.

Cependant, le problème vient de plus en plus du fait que les professionnels du droit s’appuient sur l’IA. sans vérification suffisante. Les conséquences peuvent être graves, comme le montre le cas de Tyrone Blackburn, un avocat new-yorkais qui a été condamné à une amende de 5 000 dollars pour avoir incorporé de nombreuses hallucinations et fabrications dans des dossiers juridiques générés par l’IA. Son client l’a ensuite licencié et a porté plainte au barreau.

L’impact limité des sanctions actuelles

Malgré le problème croissant, les sanctions imposées par les tribunaux n’ont pas encore eu un effet dissuasif significatif. Robert Freund estime que la persistance de ces erreurs démontre que les conséquences actuelles sont insuffisantes. Les justiciers espèrent que la visibilité offerte par les catalogues publics augmentera la responsabilisation et encouragera une plus grande prudence dans l’utilisation de l’IA.

L’avenir de l’IA et pratique juridique

Peter Henderson, professeur d’informatique à l’Université de Princeton, travaille sur des méthodes permettant d’identifier directement les fausses citations, en allant au-delà des recherches par mots clés. En fin de compte, lui et d’autres espèrent qu’une sensibilisation accrue et les progrès technologiques contribueront à atténuer le problème du « slop de l’IA » et à préserver l’intégrité du système juridique.

“J’aime partager avec mes lecteurs de petites histoires comme celle-ci”, a déclaré Eugene Volokh, professeur de droit à l’Université de Californie à Los Angeles. « histoires de folie humaine ».

En conclusion, l’augmentation des erreurs générées par l’IA dans les dossiers juridiques présente un défi important pour la profession juridique. L’émergence de justiciers juridiques, associée aux recherches en cours sur les méthodes de détection, suggère un engagement croissant à résoudre ce problème et à garantir l’exactitude et la fiabilité des procédures judiciaires. La communauté juridique doit travailler activement pour comprendre les limites de ces outils et donner la priorité à la surveillance humaine pour éviter ces erreurs coûteuses et préjudiciables.