Grammarly, a popular plataforma de assistência à escrita de propriedade da Superhuman, está envolvida em uma ação coletiva alegando o uso não autorizado de nomes e identidades de figuras proeminentes em seu novo recurso “Expert Review” alimentado por IA. A ação, movida no Distrito Sul de Nova York, alega que a empresa se apropriou indevidamente de imagens de jornalistas, autores e outros profissionais – incluindo Julia Angwin, a principal demandante e fundadora da organização de notícias sem fins lucrativos The Markup – para dar credibilidade às suas sugestões de edição de IA.
O cerne da disputa
O processo centra-se na decisão da Grammarly de apresentar feedback gerado por IA como se viesse diretamente de especialistas conhecidos, sem o seu consentimento. Isso incluiu o uso de nomes como Stephen King e Neil deGrasse Tyson como editores virtuais, uma prática que atraiu críticas imediatas uma vez revelada. Apesar de um aviso afirmando que estes especialistas não endossavam a ferramenta, a implicação era clara: os utilizadores estavam a receber contribuições de vozes confiáveis.
Desde então, Superhuman descontinuou o recurso após uma reação pública, afirmando que iriam “reimaginá-lo” para dar aos especialistas maior controle sobre sua representação. No entanto, a ação argumenta que o dano já está feito, afirmando que os danos para a classe demandante excedem US$ 5 milhões.
Preocupações legais e éticas
A base legal para o processo baseia-se em leis de longa data em Nova Iorque e na Califórnia que proíbem o uso comercial do nome e imagem de uma pessoa sem permissão. De acordo com Peter Romer-Friedman, advogado de Angwin, o caso é legalmente simples. De forma mais ampla, o processo levanta questões críticas sobre a ética das plataformas baseadas em IA que alavancam a reputação dos indivíduos sem o seu consentimento.
Não se trata apenas do endosso de celebridades; trata-se da apropriação de anos de experiência e credibilidade arduamente conquistadas. Como a própria Angwin observou, isso parece um cenário “deepfake”, onde a identidade de alguém é clonada para ganho comercial. O caso destaca a rapidez com que as ferramentas de IA podem confundir os limites entre a autoridade real e a experiência simulada.
Implicações mais amplas
O processo surge num momento em que ferramentas baseadas em IA estão sendo cada vez mais usadas para imitar habilidades e conhecimentos humanos. Esta tendência levanta preocupações sobre a propriedade intelectual, a integridade profissional e o potencial de desinformação generalizada. Se as empresas puderem explorar livremente reputações sem responsabilização, isso mina a confiança tanto na tecnologia como nos indivíduos cujas imagens são mal utilizadas.
O resultado deste caso provavelmente estabelecerá um precedente sobre como as plataformas de IA navegam nos limites éticos e legais da alavancagem da experiência humana, especialmente à medida que estas ferramentas se tornam mais integradas nos fluxos de trabalho diários.
Em última análise, o processo sublinha a necessidade de regulamentações mais rigorosas e de maior transparência na forma como as empresas de IA utilizam e representam identidades humanas nos seus produtos. O futuro das ferramentas baseadas na IA pode depender da sua capacidade de operar de forma ética, sem depender de apropriação não autorizada.






















