Grammarly enfrenta una demanda por el uso no autorizado de nombres de expertos en una herramienta de inteligencia artificial

12

Grammarly, la popular plataforma de asistencia a la escritura propiedad de Superhuman, está envuelta en una demanda colectiva que alega el uso no autorizado de nombres e identidades de figuras destacadas en su nueva función “Expert Review” impulsada por IA. La demanda, presentada en el Distrito Sur de Nueva York, afirma que la empresa se apropió indebidamente de imágenes de periodistas, autores y otros profesionales, incluida Julia Angwin, la demandante principal y fundadora de la organización de noticias sin fines de lucro The Markup, para dar credibilidad a sus sugerencias de edición con IA.

El núcleo de la disputa

La demanda se centra en la decisión de Grammarly de presentar comentarios generados por IA como si vinieran directamente de expertos conocidos sin su consentimiento. Esto incluyó el uso de nombres como Stephen King y Neil deGrasse Tyson como editores virtuales, una práctica que generó críticas inmediatas una vez revelada. A pesar de un descargo de responsabilidad que decía que estos expertos no respaldaban la herramienta, la implicación era clara: los usuarios estaban recibiendo aportes de voces confiables.

Desde entonces, Superhuman ha descontinuado la función luego de una reacción pública, afirmando que la “reimaginarán” para brindar a los expertos un mayor control sobre su representación. Sin embargo, la demanda argumenta que el daño ya está hecho, afirmando que los daños para la clase demandante superan los $5 millones.

Preocupaciones legales y éticas

La base legal de la demanda se basa en leyes de larga data en Nueva York y California que prohíben el uso comercial del nombre y la imagen de una persona sin permiso. Según Peter Romer-Friedman, abogado de Angwin, el caso es jurídicamente sencillo. En términos más generales, la demanda plantea cuestiones críticas sobre la ética de las plataformas impulsadas por IA que aprovechan la reputación de las personas sin su consentimiento.

No se trata simplemente del respaldo de celebridades; se trata de la apropiación de años de experiencia y credibilidad ganadas con tanto esfuerzo. Como señaló la propia Angwin, esto se parece a un escenario “deepfake”, donde la identidad de uno se clona con fines comerciales. El caso pone de relieve la rapidez con la que las herramientas de inteligencia artificial pueden difuminar la línea entre la autoridad real y la experiencia simulada.

Implicaciones más amplias

La demanda llega en un momento en que las herramientas basadas en inteligencia artificial se utilizan cada vez más para imitar las habilidades y la experiencia humanas. Esta tendencia genera preocupaciones sobre la propiedad intelectual, la integridad profesional y la posibilidad de que se generalice la desinformación. Si las empresas pueden explotar libremente su reputación sin rendir cuentas, eso socava la confianza tanto en la tecnología como en las personas cuyas imágenes se utilizan indebidamente.

El resultado de este caso probablemente sentará un precedente sobre cómo las plataformas de IA navegan por los límites éticos y legales del aprovechamiento de la experiencia humana, especialmente a medida que estas herramientas se integran más en los flujos de trabajo cotidianos.

En última instancia, la demanda subraya la necesidad de regulaciones más estrictas y mayor transparencia en cómo las empresas de IA utilizan y representan las identidades humanas en sus productos. El futuro de las herramientas impulsadas por la IA puede depender de si pueden funcionar de forma ética sin depender de una apropiación no autorizada.