Grammarly wordt geconfronteerd met een rechtszaak over ongeoorloofd gebruik van de namen van experts in AI Tool

19

Grammarly, het populaire schrijfhulpplatform van Superhuman, is verwikkeld in een class action-rechtszaak waarin wordt beweerd dat de namen en identiteiten van prominente figuren ongeoorloofd zijn gebruikt in de nieuwe AI-aangedreven “Expert Review” -functie. De rechtszaak, ingediend in het zuidelijke district van New York, beweert dat het bedrijf de gelijkenissen van journalisten, auteurs en andere professionals – waaronder Julia Angwin, de hoofdaanklager en oprichter van de non-profit nieuwsorganisatie The Markup – heeft verduisterd om geloofwaardigheid te verlenen aan zijn AI-bewerkingssuggesties.

De kern van het geschil

De rechtszaak draait om Grammarly’s beslissing om door AI gegenereerde feedback te presenteren alsof deze rechtstreeks van bekende experts komt, zonder hun toestemming. Dit omvatte onder meer het gebruik van namen als Stephen King en Neil deGrasse Tyson als virtuele redacteuren, een praktijk die onmiddellijke kritiek opleverde zodra deze aan het licht kwam. Ondanks een disclaimer waarin stond dat deze experts de tool niet onderschreven, was de implicatie duidelijk: gebruikers kregen input van vertrouwde stemmen.

Superhuman heeft de functie sindsdien stopgezet na een publieke reactie en verklaarde dat ze deze zullen “opnieuw bedenken” om experts meer controle te geven over hun vertegenwoordiging. De rechtszaak stelt echter dat de schade al is aangericht en stelt dat de schadevergoeding voor de klasse van de eisers meer dan $ 5 miljoen bedraagt.

Juridische en ethische zorgen

De juridische basis voor de rechtszaak berust op al lang bestaande wetten in New York en Californië die het commerciële gebruik van iemands naam en beeltenis zonder toestemming verbieden. Volgens Peter Romer-Friedman, de advocaat van Angwin, is de zaak juridisch eenvoudig. Meer in het algemeen roept de rechtszaak kritische vragen op over de ethiek van AI-gestuurde platforms die de reputatie van individuen benutten zonder hun toestemming.

Dit gaat niet alleen maar over de goedkeuring van beroemdheden; het gaat om de toe-eigening van jarenlange zuurverdiende expertise en geloofwaardigheid. Zoals Angwin zelf opmerkte, lijkt dit op een ‘deepfake’-scenario, waarbij iemands identiteit wordt gekloond voor commercieel gewin. De casus benadrukt hoe snel AI-tools de grenzen tussen echte autoriteit en gesimuleerde expertise kunnen vervagen.

Bredere implicaties

De rechtszaak komt in een tijd waarin AI-aangedreven tools steeds vaker worden gebruikt om menselijke vaardigheden en expertise na te bootsen. Deze trend roept zorgen op over intellectueel eigendom, professionele integriteit en de mogelijkheid van wijdverbreide desinformatie. Als bedrijven reputaties vrijelijk kunnen exploiteren zonder verantwoording af te leggen, ondermijnt dit het vertrouwen in zowel de technologie als de individuen wier gelijkenissen worden misbruikt.

De uitkomst van deze zaak zal waarschijnlijk een precedent scheppen voor de manier waarop AI-platforms de ethische en juridische grenzen van het benutten van menselijke expertise bewandelen, vooral omdat deze tools steeds meer geïntegreerd raken in de dagelijkse workflows.

Uiteindelijk onderstreept de rechtszaak de noodzaak van strengere regelgeving en grotere transparantie in de manier waarop AI-bedrijven menselijke identiteiten in hun producten gebruiken en vertegenwoordigen. De toekomst van AI-gestuurde tools kan afhangen van de vraag of ze ethisch kunnen werken zonder afhankelijk te zijn van ongeoorloofde toe-eigening.