Právní profese se potýká s rostoucím problémem: stále častější chyby umělé inteligence (AI), zejména falšování citací právních precedentů, v dokumentech podávaných u soudu. Existuje rostoucí síť právníků, kteří působí jako „právní kutilové vyšetřovatelé“, aby identifikovali a zdokumentovali tyto případy AI mash-up, což vyvolává obavy o integritu soudního systému a pověst právní komunity.
Problém falešných odkazů
Tato problematika se začala dostávat do popředí počátkem tohoto roku, kdy právník v případu texaského bankrotu citoval zaniklou judikaturu nazvanou Brasher v. Stewart. Soudce, který kritizoval právníka za chybu, mu nařídil podstoupit šest hodin školení o práci s AI a odkázal ho na státní kárný senát. Incident poukázal na znepokojivý trend: chatboti stále častěji generují nepřesné informace, včetně zcela vymyšlených odkazů na právní precedenty, které jsou pak zahrnuty do právních dokumentů.
Vzestup legálních amatérských vyšetřovatelů
V reakci na to začal právní tým tyto chyby sledovat a dokumentovat. Robert Freund, právník v Los Angeles, a Damien Charlotin, právník a výzkumník ve Francii, vedou úsilí o vytvoření veřejných databází, které tyto případy představují. Oni a další používají právní nástroje, jako je LexisNexis, a klíčová slova jako „umělá inteligence“, „vymyšlené případy“ a „neexistující případy“ k identifikaci a označení těchto chyb, často odhalených prostřednictvím příspěvků soudců, kteří veřejně kárají právníky. K dnešnímu dni zdokumentovali přes 500 případů použití AI.
Proč je to důležité?
Stephen Gillers, profesor etiky na New York University Law School, uvedl, že tyto chyby poškozují pověst právní komunity a dodal, že právníci by se měli za činy svých kolegů stydět. Rozšířené používání chatbotů – nástrojů, se kterými experimentuje mnoho firem – spolu s běžnou potřebou právníků zajistit přesnost svých dokumentů vytváří náročnou situaci.
Reverzní nůž: Pomoc AI a lidská chyba
Zatímco chatboti mohou být užitečnými nástroji, které pomáhají právníkům a dokonce i profesionálním zástupcům efektivně formulovat právní argumenty, potenciál chyb je značný. Jesse Schaeffer, právník v Severní Karolíně, poznamenává, že chatboti mohou lidem pomoci „mluvit jazykem, kterému budou soudci rozumět“, a to i přes jejich nedostatky.
Problémem však stále více je, že právníci spoléhají na AI bez dostatečného prověření. Důsledky mohou být vážné, jak je vidět v případě Tyrona Blackburna, newyorského právníka, který dostal pokutu 5 000 dolarů za zahrnutí četných halucinací a falšování do právních dokumentů vytvořených umělou inteligencí. Jeho klient ho následně vyhodil a podal stížnost právnické obci.
Omezený dopad současných sankcí
I přes narůstající problém nemají soudní tresty zatím výraznější odrazující účinek. Robert Freund se domnívá, že pokračující výskyt těchto chyb ukazuje, že současné důsledky jsou nedostatečné. Právní vyšetřovatelé pro kutily doufají, že otevřenost poskytovaná veřejnými katalogy zvýší odpovědnost a podpoří větší opatrnost při používání AI.
Budoucnost umělé inteligence a právní praxe
Peter Henderson, profesor počítačových věd na Princetonské univerzitě, pracuje na metodách přímé identifikace falešných odkazů, které jdou nad rámec vyhledávání klíčových slov. Nakonec on a další doufají, že zvýšená informovanost a technologický pokrok pomohou zmírnit problém mixu AI a zachovat integritu soudního systému.
„Rád sdílím malé příběhy, jako je tento, se svými čtenáři,“ řekl Yi Eugene Volokh, profesor práva na University of California v Los Angeles. „příběhy lidské iracionality“.
Závěrem lze říci, že šíření chyb generovaných umělou inteligencí v právních dokumentech představuje pro právnickou profesi významnou výzvu. Vznik legálních amatérských vyšetřovatelů spolu s pokračujícím výzkumem metod detekce naznačuje rostoucí odhodlání tento problém řešit a zajistit přesnost a spolehlivost soudního řízení. Právní komunita musí aktivně pracovat na pochopení omezení těchto nástrojů a upřednostňovat lidský dohled, aby se zabránilo těmto nákladným a škodlivým chybám.




















































