Zawody prawnicze stają przed rosnącym problemem: coraz częstszymi błędami sztucznej inteligencji (AI), w szczególności fałszowaniem cytatów z precedensów prawnych, w dokumentach składanych w sądzie. Istnieje rosnąca sieć prawników działających w charakterze „prawnych dochodzeniowców typu „zrób to sam”, których zadaniem jest identyfikowanie i dokumentowanie przypadków mieszania się sztucznej inteligencji, co budzi obawy co do integralności systemu sądowniczego i reputacji społeczności prawniczej.
Problem fałszywych linków
Kwestia ta zaczęła zyskiwać na znaczeniu na początku tego roku, kiedy prawnik prowadzący sprawę upadłościową w Teksasie przytoczył nieaktualne orzecznictwo zatytułowane Brasher przeciwko Stewartowi. Sędzia, krytykując prawnika za błąd, nakazał mu odbycie sześciogodzinnego szkolenia z pracy z sztuczną inteligencją i skierował go do państwowej komisji dyscyplinarnej. Incydent uwydatnił niepokojącą tendencję: chatboty w coraz większym stopniu generują niedokładne informacje, w tym całkowicie sfabrykowane odniesienia do precedensów prawnych, które następnie umieszczane są w dokumentach prawnych.
Wzrost liczby legalnych detektywów-amatorów
W odpowiedzi zespół prawny zaczął śledzić i dokumentować te błędy. Robert Freund, prawnik z Los Angeles, oraz Damien Charlotin, prawnik i badacz z Francji, przewodzą wysiłkom mającym na celu utworzenie publicznych baz danych prezentujących te sprawy. Oni i inni używają narzędzi prawnych, takich jak LexisNexis, i słów kluczowych, takich jak „sztuczna inteligencja”, „sfabrykowane sprawy” i „nieistniejące sprawy”, aby identyfikować i oznaczać te błędy, często ujawniane w postach sędziów publicznie karzących prawników. Do tej pory udokumentowali ponad 500 przypadków użycia sztucznej inteligencji.
Dlaczego to jest ważne?
Stephen Gillers, profesor etyki w New York University Law School, powiedział, że te błędy szkodzą reputacji społeczności prawniczej i dodał, że prawnicy powinni się wstydzić za działania swoich kolegów. Powszechne stosowanie chatbotów – narzędzi, z którymi eksperymentuje wiele firm – w połączeniu z powszechną potrzebą zapewnienia przez prawników dokładności ich dokumentów stwarza trudną sytuację.
Odwrócony nóż: pomoc AI i błąd ludzki
Chociaż chatboty mogą być przydatnymi narzędziami pomagającymi prawnikom, a nawet przedstawicielom pro se, w skutecznym formułowaniu argumentów prawnych, ryzyko błędów jest znaczne. Jesse Schaeffer, prawnik z Karoliny Północnej, zauważa, że chatboty mogą pomóc ludziom „mówić językiem zrozumiałym dla sędziów” nawet pomimo ich wad.
Coraz częściej jednak problemem jest to, że prawnicy polegają na sztucznej inteligencji bez wystarczającej weryfikacji. Konsekwencje mogą być poważne, jak widać w przypadku Tyrone Blackburn, nowojorskiego prawnika, który został ukarany grzywną w wysokości 5000 dolarów za umieszczanie licznych halucynacji i fałszerstw w dokumentach prawnych generowanych przez sztuczną inteligencję. Następnie jego klient zwolnił go i złożył skargę do społeczności prawniczej.
Ograniczony wpływ obecnych sankcji
Pomimo narastającego problemu kary sądowe nie przyniosły dotychczas znaczącego efektu odstraszającego. Robert Freund uważa, że ciągłe występowanie tych błędów pokazuje, że obecne konsekwencje są niewystarczające. Prawnicy prowadzący dochodzenia „zrób to sam” mają nadzieję, że otwartość, jaką zapewniają katalogi publiczne, zwiększy odpowiedzialność i zachęci do większej ostrożności w korzystaniu ze sztucznej inteligencji.
Przyszłość sztucznej inteligencji i praktyki prawnej
Peter Henderson, profesor informatyki na Uniwersytecie Princeton, pracuje nad metodami bezpośredniej identyfikacji fałszywych linków, które wykraczają poza wyszukiwanie za pomocą słów kluczowych. Ostatecznie on i inni mają nadzieję, że zwiększona świadomość i postęp technologiczny pomogą złagodzić problem mieszania się sztucznej inteligencji i zachować integralność systemu wymiaru sprawiedliwości.
„Uwielbiam dzielić się takimi historiami z czytelnikami” – powiedział Yi Eugene Volokh, profesor prawa na Uniwersytecie Kalifornijskim w Los Angeles. „historie o ludzkiej irracjonalności”.
Podsumowując, rozprzestrzenianie się błędów generowanych przez sztuczną inteligencję w dokumentach prawnych stanowi poważne wyzwanie dla zawodów prawniczych. Pojawienie się prawników-amatorów dochodzeniowych w połączeniu z ciągłymi badaniami nad metodami wykrywania wskazuje na rosnące zaangażowanie w rozwiązanie tego problemu oraz zapewnienie prawidłowości i rzetelności postępowań sądowych. Społeczność prawnicza musi aktywnie pracować, aby zrozumieć ograniczenia tych narzędzi i nadać priorytet nadzorowi ludzkiemu, aby zapobiec tym kosztownym i szkodliwym błędom.


















































