Grammarly čelí žalobě za neoprávněné použití odborných jmen v nástroji AI

16

Grammarly, populární platforma pro pomoc při psaní, kterou vlastní Superhuman, je v centru hromadné žaloby obviňující společnost z neoprávněného používání jmen a identit slavných lidí v nové funkci s názvem „Expert Review“ založené na umělé inteligenci. Žaloba podaná k americkému okresnímu soudu pro jižní obvod New Yorku tvrdí, že společnost si přivlastnila snímky novinářů, autorů a dalších profesionálů – včetně Julie Angwin, hlavní žalobkyně a zakladatelky neziskové zpravodajské organizace The Markup – aby dodala důvěryhodnost doporučením svého editora AI.

Podstata sporu

V centru žaloby je rozhodnutí Grammarly prezentovat recenze generované AI, jako by pocházely přímo od renomovaných odborníků bez jejich souhlasu. To zahrnovalo používání jmen lidí jako Stephen King a Neil DeGrasse Tyson jako virtuální editory, což je praxe, která po zveřejnění vyvolala okamžitou kritiku. Navzdory prohlášení, že tito odborníci tento nástroj nepodporují, předpokládá se, že uživatelé obdrželi zpětnou vazbu ze spolehlivých zdrojů.

Superhuman od té doby přestal tuto funkci používat po veřejné kritice s tím, že ji „přehodnotí“, aby expertům poskytl větší kontrolu nad jejich příspěvky. Žaloba však argumentuje tím, že škoda již byla způsobena a požaduje náhradu škody pro žalobce přesahující 5 milionů dolarů.

Právní a etické otázky

Právní základ žaloby spočívá na dlouholetých zákonech v New Yorku a Kalifornii, které zakazují komerční použití jména a podoby osoby bez povolení. Podle Petera Romera-Friedmana, Angwinova právníka, je případ právně přímočarý. V širším měřítku žaloba vyvolává důležité otázky týkající se etiky platforem umělé inteligence, které zneužívají pověsti ostatních bez souhlasu.

Není to jen o podpoře celebrit; jde o přivlastnění si let tvrdé práce a zasloužené pověsti. Jak sama Angwin poznamenala, připomíná to „deepfake“ scénář, kdy je osoba klonována pro komerční účely. Případ ukazuje, jak rychle mohou nástroje umělé inteligence smazat hranice mezi skutečnou autoritou a simulovanou odborností.

Širší důsledky

Žaloba přichází v době, kdy se stále častěji používají nástroje založené na umělé inteligenci k napodobování lidských dovedností a odborných znalostí. Tento trend vyvolává obavy o duševní vlastnictví, profesionální integritu a potenciál pro šíření dezinformací. Umožnění společnostem volně využívat pověsti bez odpovědnosti podkopává důvěru jak v technologii, tak v lidi, jejichž obrázky jsou zneužity.

Výsledek tohoto případu pravděpodobně vytvoří precedens pro to, jak platformy umělé inteligence procházejí etickými a právními hranicemi využívání lidských odborných znalostí, zvláště když se tyto nástroje stále více integrují do každodenních pracovních postupů.

Žaloba nakonec zdůrazňuje potřebu přísnější regulace a větší transparentnosti v tom, jak společnosti využívající umělou inteligenci ve svých produktech používají a reprezentují lidské identity. Budoucnost nástrojů založených na AI může záviset na tom, zda mohou jednat eticky, aniž by se uchylovaly k neoprávněnému přivlastňování si úspěchů ostatních.