Grammarly, il software di assistenza alla scrittura, ha introdotto una nuova funzionalità che consente agli utenti di ricevere feedback sul proprio lavoro da simulazioni di intelligenza artificiale di autori e accademici di spicco, compresi quelli deceduti. Questa espansione nell’intelligenza artificiale generativa, parte di un più ampio sforzo di rebranding sotto il nuovo nome Superhuman, solleva serie questioni etiche sulla proprietà intellettuale, sul consenso e sulla mercificazione delle competenze.
L’ascesa degli strumenti di scrittura basati sull’intelligenza artificiale
Grammarly si è evoluto da un semplice correttore grammaticale in un partner di scrittura AI completo. La piattaforma ora include chatbot, strumenti di parafrasi, “umanizzatori” che imitano stili di scrittura specifici e persino valutatori con intelligenza artificiale che prevedono il rendimento scolastico. Tuttavia, l’aggiunta più controversa è l’opzione “Revisione degli esperti”, che offre critiche presumibilmente ispirate da individui reali, sia viventi che deceduti.
Competenza simulata: vivi e morti
Gli utenti possono ora richiedere feedback alle versioni virtuali di autori come Stephen King e Neil deGrasse Tyson, nonché al defunto William Zinsser e Carl Sagan. Grammarly afferma esplicitamente che questi esperti non hanno alcuna affiliazione con il prodotto, chiarendo che le simulazioni sono “solo a scopo informativo”. Gli agenti dell’intelligenza artificiale sono addestrati sul lavoro di queste figure, ma la legalità di questa raccolta di contenuti rimane incerta.
Preoccupazioni e reazioni etiche
La pratica ha suscitato indignazione tra accademici e scrittori. Vanessa Heggie, professoressa all’Università di Birmingham, ha condannato Superhuman per “aver creato piccoli LLM” basati su lavoro raschiato, scambiando nomi e reputazioni senza consenso. La disponibilità di feedback da parte di storici deceduti, come David Abulafia, alimenta ulteriormente la controversia.
Come funziona: ispirazione contro approvazione
Grammarly sostiene che l’intelligenza artificiale fornisce suggerimenti ispirati al lavoro di questi esperti, piuttosto che approvazioni dirette. Jen Dakin, responsabile delle comunicazioni di Superhuman, afferma che lo strumento mira a indirizzare gli utenti verso voci influenti per ulteriori esplorazioni. Revisioni indipendenti, tuttavia, mostrano che l’intelligenza artificiale sta utilizzando attivamente “idee” e “concetti” di autori morti come William Strunk Jr. e Margaret Mitchell.
Sfiducia e sfruttamento accademico
Lo storico CE Aubin sostiene che questo sistema rafforza la profonda sfiducia nell’intelligenza artificiale all’interno delle discipline umanistiche. Sottolinea che i veri esperti non sono coinvolti nella produzione di queste revisioni e che ridurre la borsa di studio a mero lavoro ignora la personalità dello studioso. La pratica è particolarmente grave in quanto le discipline umanistiche devono far fronte a continui attacchi e tagli ai finanziamenti.
Efficacia e rilevamento
I nuovi strumenti di intelligenza artificiale non sono esenti da difetti. Il controllo antiplagio di Grammarly non è riuscito a rilevare una citazione diretta da I Simpsons, evidenziando i limiti delle sue capacità di rilevamento. Nonostante queste carenze, la funzionalità potrebbe incoraggiare gli studenti a fare affidamento sull’intelligenza artificiale per il lavoro accademico, potenzialmente confondendo il confine tra assistenza e imbroglio.
Il futuro dell’intelligenza artificiale nell’istruzione
L’espansione degli strumenti di scrittura basati sull’intelligenza artificiale solleva preoccupazioni sul futuro dell’istruzione. Alcuni temono che queste tecnologie alla fine potrebbero sostituire del tutto gli insegnanti. Resta da vedere se questo sia un risultato realistico, ma la tendenza punta verso una crescente dipendenza dall’intelligenza artificiale in contesti accademici.
In conclusione, l’ultimo articolo di Grammarly rappresenta un passo preoccupante verso la mercificazione del lavoro intellettuale e lo sfruttamento dell’eredità di scrittori e studiosi senza il loro consenso. Le implicazioni etiche della simulazione delle competenze, soprattutto dei defunti, sono profonde e le conseguenze a lungo termine per il mondo accademico rimangono incerte.
