Grammarly fait face à un procès pour utilisation non autorisée des noms d’experts dans un outil d’IA

5

Grammarly, la populaire plateforme d’aide à l’écriture appartenant à Superhuman, est impliquée dans un recours collectif alléguant l’utilisation non autorisée des noms et identités de personnalités dans sa nouvelle fonctionnalité « Expert Review » alimentée par l’IA. La plainte, déposée dans le district sud de New York, affirme que la société a détourné les portraits de journalistes, d’auteurs et d’autres professionnels, dont Julia Angwin, la principale plaignante et fondatrice de l’organisation de presse à but non lucratif The Markup, pour donner de la crédibilité à ses suggestions d’édition en matière d’IA.

Le cœur du différend

Le procès se concentre sur la décision de Grammarly de présenter les commentaires générés par l’IA comme s’ils provenaient directement d’experts renommés sans leur consentement. Cela impliquait l’utilisation de noms comme Stephen King et Neil deGrasse Tyson comme éditeurs virtuels, une pratique qui a immédiatement suscité des critiques une fois révélée. Malgré un avertissement indiquant que ces experts n’approuvaient pas l’outil, l’implication était claire : les utilisateurs recevaient des commentaires de voix de confiance.

Superhuman a depuis abandonné cette fonctionnalité à la suite d’une réaction négative du public, déclarant qu’ils la “réinventeraient” pour donner aux experts un plus grand contrôle sur leur représentation. Cependant, la poursuite fait valoir que le mal est déjà fait, affirmant que les dommages pour le groupe des plaignants dépassent 5 millions de dollars.

Préoccupations juridiques et éthiques

La base juridique de cette poursuite repose sur des lois en vigueur depuis longtemps à New York et en Californie, qui interdisent l’utilisation commerciale du nom et de l’image d’une personne sans autorisation. Selon Peter Romer-Friedman, l’avocat d’Angwin, l’affaire est juridiquement simple. Plus largement, le procès soulève des questions cruciales sur l’éthique des plateformes basées sur l’IA qui exploitent la réputation des individus sans leur consentement.

Il ne s’agit pas simplement de soutiens de célébrités ; il s’agit de s’approprier des années d’expertise et de crédibilité durement gagnées. Comme Angwin elle-même l’a noté, cela ressemble à un scénario de « deepfake », dans lequel l’identité d’une personne est clonée à des fins commerciales. Cette affaire met en évidence la rapidité avec laquelle les outils d’IA peuvent brouiller les frontières entre autorité réelle et expertise simulée.

Implications plus larges

Ce procès intervient à un moment où les outils basés sur l’IA sont de plus en plus utilisés pour imiter les compétences et l’expertise humaines. Cette tendance soulève des inquiétudes concernant la propriété intellectuelle, l’intégrité professionnelle et le risque d’une désinformation généralisée. Si les entreprises peuvent exploiter librement leur réputation sans rendre de comptes, cela mine la confiance à la fois dans la technologie et dans les individus dont l’image est utilisée à mauvais escient.

L’issue de cette affaire créera probablement un précédent dans la manière dont les plateformes d’IA franchissent les limites éthiques et juridiques de l’exploitation de l’expertise humaine, d’autant plus que ces outils sont de plus en plus intégrés dans les flux de travail quotidiens.

En fin de compte, la poursuite souligne la nécessité d’une réglementation plus stricte et d’une plus grande transparence dans la manière dont les sociétés d’IA utilisent et représentent l’identité humaine dans leurs produits. L’avenir des outils basés sur l’IA pourrait dépendre de leur capacité à fonctionner de manière éthique sans recourir à une appropriation non autorisée.