Grammarly, oprogramowanie wspomagające pisanie, wprowadziło nową funkcję, która pozwala użytkownikom uzyskać informacje zwrotne na temat ich pracy na podstawie symulacji AI znanych autorów i naukowców – w tym tych, którzy zmarli. Ta ekspansja na generatywną sztuczną inteligencję, będąca częścią szerszego rebrandingu pod nową nazwą Superhuman, rodzi poważne pytania etyczne dotyczące własności intelektualnej, zgody i komercjalizacji wiedzy specjalistycznej.
Rozwój narzędzi do pisania AI
Gramatyka ewoluowała od prostego narzędzia do sprawdzania gramatyki do wszechstronnego partnera w pisaniu AI. Platforma zawiera teraz chatboty, narzędzia do parafrazowania, „humanizatory” naśladujące określone style pisania, a nawet osoby oceniające oparte na sztucznej inteligencji, które przewidują wyniki w nauce. Jednak najbardziej kontrowersyjnym dodatkiem jest opcja „Recenzja ekspercka”, która oferuje krytykę rzekomo inspirowaną prawdziwymi ludźmi, zarówno żywymi, jak i zmarłymi.
Symulowane doświadczenie: życie i śmierć
Użytkownicy mogą teraz poprosić o opinię wirtualne wersje autorów, takich jak Stephen King i Neil deGrasse Tyson, a także nieżyjący już William Zinsser i Carl Sagan. Gramatycznie wyraźnie stwierdza się, że ci eksperci nie są powiązani z produktem, wyjaśniając, że symulacje służą „wyłącznie celom informacyjnym”. Agenci sztucznej inteligencji są szkoleni w zakresie prac tych postaci, ale legalność gromadzenia takich treści pozostaje niepewna.
Problemy etyczne i odpowiedzi
Praktyka ta wywołała oburzenie wśród naukowców i pisarzy. Vanessa Heggie, profesor na Uniwersytecie w Birmingham, potępiła Superhumana za „tworzenie małych LLM” w oparciu o zebrane prace i wykorzystywanie nazwisk i reputacji bez zgody. Dostępność świadectw zmarłych historyków, takich jak David Aboulafia, dodatkowo zwiększa kontrowersje.
Inspiracja a wsparcie: jak to działa
Gramatycznie twierdzi, że sztuczna inteligencja zapewnia sugestie inspirowane pracą tych ekspertów, a nie bezpośrednie wsparcie. Jen Dakin, menedżer ds. komunikacji w Superhuman, twierdzi, że narzędzie ma na celu skierowanie użytkowników do wpływowych głosów w celu dalszych badań. Niezależne recenzje wskazują jednak, że sztuczna inteligencja aktywnie wykorzystuje „pomysły” i „koncepcje” zmarłych autorów, takich jak William Strunk Jr. i Margaret Mitchell.
Akademicka nieufność i wyzysk
Historyk K.E. Aubin argumentuje, że system ten wzmacnia głęboką nieufność do sztucznej inteligencji w naukach humanistycznych. Podkreśla, że w tworzenie tych recenzji nie biorą udziału prawdziwi eksperci, a sprowadzanie pracy naukowej do zwykłej pracy ignoruje tożsamość naukowca. Praktyka ta jest szczególnie oburzająca, ponieważ humanistyka staje w obliczu ciągłych ataków i cięć w finansowaniu.
Wydajność i wykrywanie
Nowe narzędzia AI nie są pozbawione wad. Narzędzie do sprawdzania plagiatu Grammarly nie było w stanie wykryć bezpośredniego cytatu z The Simpsons, co podkreślało ograniczenia jego możliwości wykrywania. Pomimo tych niedociągnięć funkcja ta może zachęcić uczniów do polegania na sztucznej inteligencji w pracy akademickiej, potencjalnie zacierając granice między pomaganiem a oszukiwaniem.
Przyszłość sztucznej inteligencji w edukacji
Rozwój narzędzi do pisania AI budzi obawy o przyszłość edukacji. Niektórzy obawiają się, że technologie te mogą ostatecznie zastąpić nauczycieli. Czas pokaże, czy taki wynik jest realistyczny, ale tendencja wskazuje na rosnące poleganie na sztucznej inteligencji w środowisku akademickim.
Podsumowując, najnowsza funkcja Grammarly stanowi niepokojący krok w kierunku komercjalizacji pracy intelektualnej i wykorzystywania dziedzictwa pisarzy i uczonych bez ich zgody. Etyczne implikacje symulowanych doświadczeń – zwłaszcza zmarłych – są głębokie, a długoterminowe implikacje dla środowiska akademickiego pozostają niepewne.






















