Grammarly, platform bantuan menulis populer yang dimiliki oleh Superhuman, terlibat dalam gugatan class action yang menuduh penggunaan nama dan identitas tokoh terkemuka secara tidak sah dalam fitur “Expert Review” baru yang didukung AI. Gugatan tersebut, yang diajukan di Distrik Selatan New York, mengklaim bahwa perusahaan tersebut menyalahgunakan kemiripan dengan jurnalis, penulis, dan profesional lainnya—termasuk Julia Angwin, penggugat utama dan pendiri organisasi berita nirlaba The Markup—untuk memberikan kredibilitas pada saran pengeditan AI-nya.
Inti Sengketa
Gugatan tersebut berpusat pada keputusan Grammarly untuk menyajikan masukan yang dihasilkan AI seolah-olah datang langsung dari pakar terkenal tanpa persetujuan mereka. Hal ini termasuk menggunakan nama seperti Stephen King dan Neil deGrasse Tyson sebagai editor virtual, sebuah praktik yang langsung menuai kritik setelah terungkap. Meskipun ada penafian yang menyatakan bahwa para ahli ini tidak mendukung alat ini, implikasinya jelas: pengguna menerima masukan dari pihak yang terpercaya.
Manusia Super sejak itu menghentikan fitur tersebut menyusul reaksi publik, menyatakan bahwa mereka akan “menata ulang” fitur tersebut untuk memberikan para ahli kontrol yang lebih besar atas representasi mereka. Namun, gugatan tersebut berpendapat bahwa kerugian telah terjadi, dengan menyatakan bahwa kerugian bagi kelompok penggugat melebihi $5 juta.
Masalah Hukum dan Etika
Dasar hukum gugatan tersebut didasarkan pada undang-undang lama di New York dan California yang melarang penggunaan nama dan rupa seseorang secara komersial tanpa izin. Menurut Peter Romer-Friedman, pengacara Angwin, kasus ini beralasan secara hukum. Secara lebih luas, gugatan ini menimbulkan pertanyaan kritis mengenai etika platform berbasis AI yang memanfaatkan reputasi individu tanpa persetujuan mereka.
Ini bukan hanya tentang dukungan selebriti; ini tentang penggunaan keahlian dan kredibilitas yang diperoleh dengan susah payah selama bertahun-tahun. Seperti yang dikatakan Angwin sendiri, hal ini mirip dengan skenario “deepfake”, di mana identitas seseorang dikloning demi keuntungan komersial. Kasus ini menyoroti betapa cepatnya alat AI dapat mengaburkan batas antara otoritas nyata dan keahlian simulasi.
Implikasi yang Lebih Luas
Gugatan ini muncul pada saat alat-alat yang didukung AI semakin banyak digunakan untuk meniru keterampilan dan keahlian manusia. Tren ini menimbulkan kekhawatiran mengenai kekayaan intelektual, integritas profesional, dan potensi misinformasi yang meluas. Jika perusahaan dapat dengan bebas mengeksploitasi reputasi tanpa akuntabilitas, hal ini akan merusak kepercayaan terhadap teknologi dan individu yang kemiripannya disalahgunakan.
Hasil dari kasus ini kemungkinan besar akan menjadi preseden tentang bagaimana platform AI menavigasi batas-batas etika dan hukum dalam memanfaatkan keahlian manusia, terutama ketika alat-alat ini menjadi lebih terintegrasi ke dalam alur kerja sehari-hari.
Pada akhirnya, tuntutan tersebut menggarisbawahi perlunya peraturan yang lebih ketat dan transparansi yang lebih besar dalam cara perusahaan AI menggunakan dan mewakili identitas manusia dalam produk mereka. Masa depan alat yang digerakkan oleh AI mungkin bergantung pada apakah alat tersebut dapat beroperasi secara etis tanpa bergantung pada penggunaan yang tidak sah.






















