De advocatuur kampt met een groeiend probleem: de toenemende frequentie van door kunstmatige intelligentie (AI) gegenereerde fouten, met name het verzinnen van citaten uit de jurisprudentie, in rechtszaken. Er is een groeiend netwerk van advocaten ontstaan, die optreden als “juridische burgerwachten” om deze gevallen van “AI-slop” aan het licht te brengen en te documenteren, wat aanleiding geeft tot bezorgdheid over de integriteit van het rechtssysteem en de reputatie van de balie.
Het probleem van verzonnen citaten
De kwestie begon eerder dit jaar bekendheid te krijgen toen een advocaat in een faillissementszaak in Texas een niet-bestaande zaak aanhaalde genaamd Brasher v. Stewart. De rechter veroordeelde de advocaat vanwege de fout en gaf opdracht tot zes uur A.I. training en verwees hem naar de disciplinaire commissie van de staatsbar. Dit incident bracht een verontrustende trend aan het licht: chatbots genereren vaak onnauwkeurige informatie, inclusief volledig verzonnen citaten uit de jurisprudentie, die vervolgens worden opgenomen in juridische dossiers.
De opkomst van juridische burgerwachten
Als reactie hierop is een groep advocaten begonnen met het opsporen en documenteren van deze fouten. Robert Freund, een advocaat uit Los Angeles, en Damien Charlotin, een advocaat en onderzoeker in Frankrijk, leiden de inspanningen om openbare databases te creëren om deze gevallen onder de aandacht te brengen. Zij en anderen gebruiken juridische hulpmiddelen als LexisNexis en trefwoorden als ‘kunstmatige intelligentie’, ‘verzonnen zaken’ en ‘niet-bestaande zaken’ om deze blunders op te sporen en te signaleren, die vaak aan het licht komen door de mening van rechters die advocaten publiekelijk uitschelden. Tot nu toe hebben ze meer dan 500 gevallen van A.I. misbruik.
Waarom dit belangrijk is
Stephen Gillers, hoogleraar ethiek aan de New York University School of Law, is van mening dat deze fouten de reputatie van de balie schaden, en voegt eraan toe dat advocaten zich moeten schamen voor de daden van hun collega’s. De wijdverspreide adoptie van chatbots – tools waar veel bedrijven mee experimenteren – naast de algemeen aanvaarde noodzaak voor advocaten om de juistheid van hun dossiers te garanderen, creëert een uitdagende omgeving.
Een tweesnijdend zwaard: A.I. Hulp en menselijke fouten
Hoewel chatbots waardevolle hulpmiddelen kunnen zijn, die advocaten en zelfs pro-procederende partijen (‘zij die zichzelf vertegenwoordigen’) kunnen helpen juridische argumenten effectief te verwoorden, is de kans op fouten aanzienlijk. Jesse Schaefer, een advocaat uit North Carolina, merkt op dat chatbots mensen kunnen helpen ‘te spreken in een taal die rechters zullen begrijpen’, zelfs met hun valkuilen.
Het probleem komt echter steeds vaker voort uit het feit dat juridische professionals vertrouwen op A.I. zonder voldoende verificatie. De gevolgen kunnen ernstig zijn, zoals blijkt uit het geval van Tyrone Blackburn, een advocaat uit New York die een boete van $ 5.000 kreeg omdat hij talloze hallucinaties en verzinsels had verwerkt in juridische documenten gegenereerd door A.I. Zijn cliënt ontsloeg hem vervolgens en diende een klacht in bij de balie.
De beperkte impact van de huidige straffen
Ondanks het groeiende probleem werken de door de rechtbank opgelegde straffen nog steeds niet als een belangrijk afschrikmiddel. Robert Freund is van mening dat het voortdurende optreden van deze fouten aantoont dat de huidige gevolgen onvoldoende zijn. De juridische burgerwachten hopen dat de zichtbaarheid die openbare catalogi bieden de verantwoordelijkheid zal vergroten en zal aanzetten tot grotere voorzichtigheid bij het gebruik van A.I.
De toekomst van AI en juridische praktijk
Peter Henderson, hoogleraar computerwetenschappen aan de Universiteit van Princeton, werkt aan methoden om valse citaten direct te identificeren, waarbij hij verder gaat dan alleen het zoeken op trefwoorden. Uiteindelijk hopen hij en anderen dat een groter bewustzijn en technologische vooruitgang zullen helpen het probleem van “AI-slop” te verzachten en de integriteit van het rechtssysteem te behouden.
“Ik deel graag dit soort verhalen met mijn lezers”, zegt Eugene Volokh, hoogleraar rechten aan de Universiteit van Californië, Los Angeles. ‘Verhalen over menselijke dwaasheid.’
Concluderend kan worden gesteld dat de opkomst van door AI gegenereerde fouten in juridische dossiers een aanzienlijke uitdaging vormt voor de advocatuur. De opkomst van juridische burgerwachten, gekoppeld aan het lopende onderzoek naar detectiemethoden, duidt op een groeiende inzet om dit probleem aan te pakken en de nauwkeurigheid en betrouwbaarheid van gerechtelijke procedures te waarborgen. De juridische gemeenschap moet actief werken aan het begrijpen van de beperkingen van deze instrumenten en prioriteit geven aan menselijk toezicht om deze kostbare en schadelijke fouten te voorkomen.



















































