Grammarly droht Klage wegen unbefugter Verwendung von Expertennamen in KI-Tool

6

Grammarly, die beliebte Schreibhilfeplattform von Superhuman, ist in eine Sammelklage verwickelt, in der die unbefugte Verwendung der Namen und Identitäten prominenter Persönlichkeiten in ihrer neuen KI-gestützten Funktion „Expert Review“ behauptet wird. In der Klage, die im südlichen Bezirk von New York eingereicht wurde, wird behauptet, das Unternehmen habe die Konterfeis von Journalisten, Autoren und anderen Fachleuten – darunter Julia Angwin, der Hauptklägerin und Gründerin der gemeinnützigen Nachrichtenorganisation The Markup – missbraucht, um seinen KI-Bearbeitungsvorschlägen Glaubwürdigkeit zu verleihen.

Der Kern des Streits

Im Mittelpunkt der Klage steht die Entscheidung von Grammarly, KI-generiertes Feedback so darzustellen, als käme es direkt von bekannten Experten ohne deren Zustimmung. Dazu gehörte die Verwendung von Namen wie Stephen King und Neil deGrasse Tyson als virtuelle Redakteure, eine Praxis, die nach ihrer Enthüllung sofort Kritik hervorrief. Trotz eines Haftungsausschlusses, der besagte, dass diese Experten das Tool nicht befürworteten, war die Implikation klar: Benutzer erhielten Input von vertrauenswürdigen Stimmen.

Superhuman hat das Feature inzwischen aufgrund einer öffentlichen Gegenreaktion eingestellt und erklärt, dass sie es „neu erfinden“ werden, um Experten mehr Kontrolle über ihre Darstellung zu geben. In der Klage wird jedoch argumentiert, dass der Schaden bereits angerichtet sei, und behauptet, dass der Schadensersatz für die Klägerklasse 5 Millionen US-Dollar übersteige.

Rechtliche und ethische Bedenken

Die Rechtsgrundlage für die Klage beruht auf seit langem geltenden Gesetzen in New York und Kalifornien, die die kommerzielle Nutzung des Namens und des Bildes einer Person ohne Genehmigung verbieten. Laut Peter Romer-Friedman, Angwins Anwalt, ist der Fall rechtlich unkompliziert. Im weiteren Sinne wirft die Klage kritische Fragen zur Ethik von KI-gesteuerten Plattformen auf, die den Ruf von Einzelpersonen ohne deren Zustimmung ausnutzen.

Hier geht es nicht nur um die Unterstützung von Prominenten; Es geht um die Aneignung jahrelang hart erarbeiteter Expertise und Glaubwürdigkeit. Wie Angwin selbst feststellte, ähnelt dies einem „Deepfake“-Szenario, bei dem die eigene Identität aus kommerziellen Gründen geklont wird. Der Fall zeigt, wie schnell KI-Tools die Grenzen zwischen echter Autorität und simuliertem Fachwissen verwischen können.

Umfassendere Implikationen

Die Klage kommt zu einer Zeit, in der KI-gestützte Tools zunehmend zur Nachahmung menschlicher Fähigkeiten und Fachkenntnisse eingesetzt werden. Dieser Trend wirft Bedenken hinsichtlich des geistigen Eigentums, der beruflichen Integrität und der Möglichkeit weit verbreiteter Fehlinformationen auf. Wenn Unternehmen ihre Reputation ungehindert und ohne Rechenschaftspflicht ausnutzen können, untergräbt dies das Vertrauen sowohl in die Technologie als auch in die Personen, deren Abbildungen missbraucht werden.

Der Ausgang dieses Falles wird wahrscheinlich einen Präzedenzfall dafür schaffen, wie KI-Plattformen die ethischen und rechtlichen Grenzen der Nutzung menschlichen Fachwissens überwinden, insbesondere da diese Tools immer stärker in alltägliche Arbeitsabläufe integriert werden.

Letztendlich unterstreicht die Klage die Notwendigkeit strengerer Vorschriften und größerer Transparenz darüber, wie KI-Unternehmen menschliche Identitäten in ihren Produkten verwenden und darstellen. Die Zukunft KI-gesteuerter Tools kann davon abhängen, ob sie ethisch einwandfrei arbeiten können, ohne auf unbefugte Aneignung angewiesen zu sein.