Grammarly affronta una causa per l’uso non autorizzato dei nomi degli esperti nello strumento AI

18

Grammarly, la popolare piattaforma di assistenza alla scrittura di proprietà di Superhuman, è coinvolta in un’azione legale collettiva per presunto uso non autorizzato di nomi e identità di figure di spicco nella sua nuova funzionalità “Expert Review” basata sull’intelligenza artificiale. La causa, depositata nel distretto meridionale di New York, sostiene che la società si è appropriata indebitamente delle sembianze di giornalisti, autori e altri professionisti, tra cui Julia Angwin, la principale querelante e fondatrice dell’organizzazione giornalistica no-profit The Markup, per dare credibilità ai suoi suggerimenti di editing tramite intelligenza artificiale.

Il nocciolo della controversia

La causa è incentrata sulla decisione di Grammarly di presentare il feedback generato dall’intelligenza artificiale come se provenisse direttamente da noti esperti senza il loro consenso. Ciò includeva l’uso di nomi come Stephen King e Neil deGrasse Tyson come redattori virtuali, una pratica che una volta rivelata attirò critiche immediate. Nonostante un disclaimer affermasse che questi esperti non approvavano lo strumento, l’implicazione era chiara: gli utenti ricevevano input da voci fidate.

Da allora Superhuman ha interrotto la funzione a seguito di una reazione pubblica, affermando che la “reimmagineranno” per dare agli esperti un maggiore controllo sulla loro rappresentazione. Tuttavia, la causa sostiene che il danno è già fatto, affermando che i danni per la classe dei ricorrenti superano i 5 milioni di dollari.

Preoccupazioni legali ed etiche

La base legale della causa si basa su leggi di lunga data di New York e California che vietano l’uso commerciale del nome e delle immagini di una persona senza permesso. Secondo Peter Romer-Friedman, avvocato di Angwin, il caso è giuridicamente semplice. Più in generale, la causa solleva questioni critiche sull’etica delle piattaforme basate sull’intelligenza artificiale che sfruttano la reputazione degli individui senza il loro consenso.

Non si tratta semplicemente di sponsorizzazioni di celebrità; si tratta dell’appropriazione di anni di esperienza e credibilità duramente guadagnate. Come ha notato la stessa Angwin, questo sembra simile a uno scenario “deepfake”, in cui la propria identità viene clonata per guadagno commerciale. Il caso evidenzia la rapidità con cui gli strumenti di intelligenza artificiale possono offuscare il confine tra autorità reale e competenza simulata.

Implicazioni più ampie

La causa arriva in un momento in cui gli strumenti basati sull’intelligenza artificiale vengono sempre più utilizzati per imitare le capacità e le competenze umane. Questa tendenza solleva preoccupazioni sulla proprietà intellettuale, sull’integrità professionale e sul potenziale di una diffusa disinformazione. Se le aziende possono sfruttare liberamente la propria reputazione senza responsabilità, ciò mina la fiducia sia nella tecnologia che negli individui le cui sembianze vengono utilizzate in modo improprio.

L’esito di questo caso costituirà probabilmente un precedente sul modo in cui le piattaforme di intelligenza artificiale superano i confini etici e legali dello sfruttamento delle competenze umane, soprattutto perché questi strumenti diventeranno sempre più integrati nei flussi di lavoro quotidiani.

In definitiva, la causa sottolinea la necessità di normative più severe e di una maggiore trasparenza sul modo in cui le aziende di intelligenza artificiale utilizzano e rappresentano le identità umane nei loro prodotti. Il futuro degli strumenti basati sull’intelligenza artificiale potrebbe dipendere dalla loro capacità di operare in modo etico senza fare affidamento sull’appropriazione non autorizzata.