Додому Різне A ascensão do “A.I. Slop” no tribunal: advogados e vigilantes combatem a...

A ascensão do “A.I. Slop” no tribunal: advogados e vigilantes combatem a jurisprudência fabricada

A profissão jurídica está a lidar com um problema crescente: a frequência crescente de erros gerados pela inteligência artificial (IA), especialmente a fabricação de citações de jurisprudência, em processos judiciais. Surgiu uma rede crescente de advogados, que actuam como “vigilantes jurídicos”, para expor e documentar estes casos de “desleixo de IA”, levantando preocupações sobre a integridade do sistema jurídico e a reputação da Ordem dos Advogados.

O problema das citações fabricadas

A questão começou a ganhar destaque no início deste ano, quando um advogado em um caso de falência no Texas citou um caso inexistente chamado Brasher v. Stewart. O juiz, criticando o advogado pelo erro, determinou seis horas de IA. treinamento e o encaminhou para o comitê disciplinar da Ordem dos Advogados do Estado. Este incidente destacou uma tendência preocupante: os chatbots geram frequentemente informações imprecisas, incluindo citações de jurisprudência completamente fabricadas, que são então incorporadas em processos judiciais.

A ascensão dos vigilantes legais

Em resposta, um grupo de advogados começou a rastrear e documentar estes erros. Robert Freund, advogado residente em Los Angeles, e Damien Charlotin, advogado e investigador em França, estão a liderar esforços para criar bases de dados públicas para mostrar estes casos. Eles e outros usam ferramentas jurídicas como LexisNexis e palavras-chave como “inteligência artificial”, “casos fabricados” e “casos inexistentes” para encontrar e sinalizar esses erros, muitas vezes descobertos ao encontrar opiniões de juízes que repreendem publicamente os advogados. Até o momento, eles documentaram mais de 500 casos de I.A. uso indevido.

Por que isso é importante

Stephen Gillers, professor de ética da Faculdade de Direito da Universidade de Nova Iorque, acredita que estes erros estão a prejudicar a reputação da Ordem dos Advogados, acrescentando que os advogados deveriam ter vergonha das ações dos seus colegas. A adopção generalizada de chatbots – ferramentas que muitas empresas estão a experimentar – juntamente com uma necessidade geralmente aceite de que os advogados garantam a exactidão dos seus registos, cria um ambiente desafiante.

Uma espada de dois gumes: IA Assistência e erro humano

Embora os chatbots possam ser ferramentas valiosas, ajudando advogados e até mesmo litigantes pro se (“aqueles que se representam”) a articular argumentos jurídicos de forma eficaz, o potencial de erro é significativo. Jesse Schaefer, advogado residente na Carolina do Norte, observa que os chatbots podem ajudar as pessoas a “falar numa linguagem que os juízes compreenderão”, mesmo com as suas armadilhas.

No entanto, o problema decorre cada vez mais de profissionais jurídicos que confiam na IA. sem verificação suficiente. As consequências podem ser graves, como visto no caso de Tyrone Blackburn, um advogado de Nova Iorque que foi multado em 5.000 dólares por incorporar numerosas alucinações e invenções em documentos jurídicos gerados pela IA. Posteriormente, seu cliente o demitiu e apresentou uma reclamação ao bar.

O impacto limitado das penalidades atuais

Apesar do problema crescente, as sanções ordenadas pelo tribunal ainda não funcionaram como um elemento dissuasor significativo. Robert Freund acredita que a ocorrência contínua destes erros demonstra que as consequências actuais são insuficientes. Os vigilantes legais esperam que a visibilidade oferecida pelos catálogos públicos aumente a responsabilização e encoraje uma maior cautela ao usar a IA.

O Futuro da IA e Prática Jurídica

Peter Henderson, professor de ciência da computação na Universidade de Princeton, está trabalhando em métodos para identificar diretamente citações falsas, indo além da dependência de pesquisas por palavras-chave. Em última análise, ele e outros esperam que o aumento da consciencialização e os avanços tecnológicos ajudem a mitigar o problema do “desperdício de IA” e a preservar a integridade do sistema jurídico.

“Gosto de compartilhar com meus leitores pequenas histórias como esta”, disse Eugene Volokh, professor de direito da Universidade da Califórnia, em Los Angeles. “histórias de loucura humana”.

Concluindo, o aumento de erros gerados pela IA em processos judiciais representa um desafio significativo para a profissão jurídica. O surgimento de vigilantes legais, juntamente com a investigação em curso sobre métodos de detecção, sugere um compromisso crescente para resolver este problema e salvaguardar a precisão e fiabilidade dos processos judiciais. A comunidade jurídica deve trabalhar ativamente para compreender as limitações destas ferramentas e priorizar a supervisão humana para evitar estes erros dispendiosos e prejudiciais.

Exit mobile version