Grammarly staje w obliczu pozwu za nieuprawnione użycie nazwisk ekspertów w narzędziu AI

20

Grammarly, popularna platforma pomocy w pisaniu należąca do Superhuman, znajduje się w centrum pozwu zbiorowego, w którym oskarża się firmę o nieuprawnione wykorzystanie nazwisk i tożsamości znanych osób w nowej funkcji „Expert Review” opartej na sztucznej inteligencji. W pozwie złożonym w Sądzie Okręgowym Stanów Zjednoczonych dla Południowego Okręgu Nowego Jorku zarzucono, że firma przywłaszczyła sobie wizerunki dziennikarzy, autorów i innych specjalistów – w tym Julii Angwin, głównej powoda i założycielki organizacji non-profit informacyjnej The Markup – aby uwiarygodnić zalecenia swojego redaktora AI.

Istota sporu

Centralnym punktem pozwu jest decyzja Grammarly o prezentowaniu recenzji generowanych przez sztuczną inteligencję tak, jakby pochodziły bezpośrednio od uznanych ekspertów, bez ich zgody. Obejmuje to używanie nazwisk takich osób jak Stephen King i Neil DeGrasse Tyson jako wirtualnych redaktorów, co po ujawnieniu zostało natychmiast skrytykowane. Pomimo zastrzeżenia stwierdzającego, że ci eksperci nie popierają tego narzędzia, sugeruje się, że użytkownicy otrzymali opinie z wiarygodnych źródeł.

Od tego czasu Superhuman zaprzestał korzystania z tej funkcji po publicznej krytyce, twierdząc, że „przemyśli” ją, aby zapewnić ekspertom większą kontrolę nad ich zgłoszeniami. Jednak w pozwie argumentuje się, że szkoda została już wyrządzona, żądając odszkodowań dla powodów przekraczających 5 milionów dolarów.

Kwestie prawne i etyczne

Podstawa prawna pozwu opiera się na wieloletnich przepisach obowiązujących w Nowym Jorku i Kalifornii, które zabraniają komercyjnego wykorzystania nazwiska i wizerunku danej osoby bez pozwolenia. Zdaniem Petera Romera-Friedmana, prawnika Angwina, sprawa jest prawnie prosta. Mówiąc szerzej, pozew podnosi ważne pytania dotyczące etyki platform AI, które wykorzystują reputację innych osób bez ich zgody.

Nie chodzi tylko o rekomendacje celebrytów; chodzi o przywłaszczenie sobie lat ciężkiej pracy i zasłużonej reputacji. Jak zauważyła sama Angwin, przypomina to scenariusz „deepfake”, w którym osoba jest klonowana w celach komercyjnych. Przypadek ten pokazuje, jak szybko narzędzia AI mogą zacierać granice między prawdziwą władzą a symulowaną wiedzą specjalistyczną.

Szersze implikacje

Pozew wydano w momencie, gdy narzędzia oparte na sztucznej inteligencji są coraz częściej wykorzystywane do imitowania ludzkich umiejętności i wiedzy specjalistycznej. Tendencja ta budzi obawy dotyczące własności intelektualnej, uczciwości zawodowej i możliwości rozprzestrzeniania się dezinformacji. Umożliwienie firmom swobodnego wykorzystywania reputacji bez ponoszenia odpowiedzialności podważa zaufanie zarówno do technologii, jak i do osób, których wizerunek jest niewłaściwie wykorzystywany.

Wynik tej sprawy prawdopodobnie ustanowi precedens dla sposobu, w jaki platformy sztucznej inteligencji pokonują etyczne i prawne granice korzystania z wiedzy ludzkiej, zwłaszcza że narzędzia te stają się coraz bardziej zintegrowane z codziennymi przepływami pracy.

Ostatecznie pozew podkreśla potrzebę bardziej rygorystycznych przepisów i większej przejrzystości w zakresie sposobu, w jaki firmy zajmujące się sztuczną inteligencją wykorzystują ludzką tożsamość i ją reprezentują w swoich produktach. Przyszłość narzędzi opartych na sztucznej inteligencji może zależeć od tego, czy będą one mogły działać etycznie, bez uciekania się do nieuprawnionego przywłaszczania sobie osiągnięć innych osób.