El auge de la “inteligencia artificial” en los tribunales: abogados y vigilantes combaten la jurisprudencia fabricada

90

La profesión jurídica está lidiando con un problema creciente: la creciente frecuencia de errores generados por la inteligencia artificial (IA), en particular la fabricación de citas de jurisprudencia, en los expedientes judiciales. Ha surgido una red cada vez mayor de abogados que actúan como “vigilantes legales” para exponer y documentar estos casos de “basura de IA”, lo que genera preocupaciones sobre la integridad del sistema legal y la reputación del colegio de abogados.

El problema de las citas fabricadas

El tema comenzó a ganar prominencia a principios de este año cuando un abogado en un caso de bancarrota en Texas citó un caso inexistente llamado Brasher v. Stewart. El juez, criticando al abogado por el error, ordenó seis horas de A.I. capacitación y lo remitió al comité disciplinario del colegio de abogados del estado. Este incidente puso de relieve una tendencia preocupante: los chatbots generan con frecuencia información inexacta, incluidas citas de jurisprudencia completamente inventadas, que luego se incorporan a los expedientes legales.

El ascenso de los vigilantes legales

En respuesta, un grupo de abogados ha comenzado a rastrear y documentar estos errores. Robert Freund, abogado radicado en Los Ángeles, y Damien Charlotin, abogado e investigador en Francia, están liderando esfuerzos para crear bases de datos públicas para mostrar estos casos. Ellos y otros utilizan herramientas legales como LexisNexis y palabras clave como “inteligencia artificial”, “casos fabricados” y “casos inexistentes” para encontrar y señalar estos errores, a menudo descubiertos al encontrar opiniones de jueces que reprenden públicamente a los abogados. Hasta la fecha, han documentado más de 500 casos de A.I. mal uso.

Por qué esto es importante

Stephen Gillers, profesor de ética de la Facultad de Derecho de la Universidad de Nueva York, cree que estos errores están dañando la reputación del colegio de abogados y añade que los abogados deberían avergonzarse de las acciones de sus colegas. La adopción generalizada de chatbots (herramientas con las que muchas empresas están experimentando) junto con la necesidad generalmente aceptada de que los abogados garanticen la exactitud de sus presentaciones, crea un entorno desafiante.

Una espada de doble filo: A.I. Asistencia y error humano

Si bien los chatbots pueden ser herramientas valiosas que ayudan a los abogados e incluso a los litigantes pro se (“aquellos que se representan a sí mismos”) a articular argumentos legales de manera efectiva, el potencial de error es significativo. Jesse Schaefer, un abogado de Carolina del Norte, señala que los chatbots pueden ayudar a las personas a “hablar en un idioma que los jueces entenderán”, incluso con sus dificultades.

Sin embargo, el problema surge cada vez más de que los profesionales del derecho dependen de la inteligencia artificial. sin verificación suficiente. Las consecuencias pueden ser graves, como se vio en el caso de Tyrone Blackburn, un abogado de Nueva York que fue multado con 5.000 dólares por incorporar numerosas alucinaciones e invenciones en escritos legales generados por A.I. Posteriormente, su cliente lo despidió y presentó una denuncia ante el colegio de abogados.

El impacto limitado de las sanciones actuales

A pesar del creciente problema, las sanciones ordenadas por los tribunales aún no han tenido un efecto disuasorio significativo. Robert Freund cree que la continua ocurrencia de estos errores demuestra que las consecuencias actuales son insuficientes. Los vigilantes legales esperan que la visibilidad que ofrecen los catálogos públicos aumente la responsabilidad y fomente una mayor precaución al utilizar la IA.

El futuro de la IA y práctica jurídica

Peter Henderson, profesor de informática en la Universidad de Princeton, está trabajando en métodos para identificar directamente citas falsas, yendo más allá de la dependencia de búsquedas por palabras clave. En última instancia, él y otros esperan que una mayor conciencia y los avances tecnológicos ayuden a mitigar el problema de la “inteligencia artificial” y preservar la integridad del sistema legal.

“Me gusta compartir con mis lectores pequeñas historias como ésta”, dijo Eugene Volokh, profesor de derecho en la Universidad de California, Los Ángeles. “Historias de locura humana”.

En conclusión, el aumento de errores generados por la IA en los expedientes legales presenta un desafío importante para la profesión jurídica. La aparición de vigilantes legales, junto con la investigación en curso sobre métodos de detección, sugiere un compromiso creciente para abordar este problema y salvaguardar la precisión y confiabilidad de los procedimientos legales. La comunidad jurídica debe trabajar activamente para comprender las limitaciones de estas herramientas y priorizar la supervisión humana para evitar estos errores costosos y dañinos.