Bangkitnya “A.I. Slop” di Pengadilan: Pengacara dan Penjaga Memerangi Kasus Hukum yang Dibuat-buat

97

Profesi hukum sedang bergulat dengan masalah yang sedang berkembang: meningkatnya frekuensi kesalahan yang disebabkan oleh kecerdasan buatan (AI), khususnya pembuatan kutipan kasus hukum, dalam pengajuan ke pengadilan. Semakin banyak jaringan pengacara yang bermunculan, bertindak sebagai “penjaga hukum”, untuk mengungkap dan mendokumentasikan contoh-contoh “kesalahan AI” ini, yang meningkatkan kekhawatiran mengenai integritas sistem hukum dan reputasi pengacara.

Masalah Kutipan Palsu

Masalah ini mulai menjadi terkenal awal tahun ini ketika seorang pengacara dalam kasus kebangkrutan di Texas mengutip kasus yang tidak ada yang disebut Brasher v. Stewart. Hakim, yang mengecam pengacara atas kesalahan tersebut, mengamanatkan enam jam A.I. pelatihan dan merujuknya ke komite disiplin pengacara negara bagian. Insiden ini menyoroti tren yang meresahkan: chatbot sering kali menghasilkan informasi yang tidak akurat, termasuk kutipan kasus hukum yang dibuat-buat, yang kemudian dimasukkan ke dalam pengajuan hukum.

Bangkitnya Para Penjaga Hukum

Sebagai tanggapan, sekelompok pengacara mulai melacak dan mendokumentasikan kesalahan-kesalahan ini. Robert Freund, seorang pengacara yang berbasis di Los Angeles, dan Damien Charlotin, seorang pengacara dan peneliti di Perancis, memimpin upaya untuk membuat database publik untuk menampilkan contoh-contoh ini. Mereka dan pihak lain menggunakan alat hukum seperti LexisNexis dan kata kunci seperti “kecerdasan buatan”, “kasus yang dibuat-buat”, dan “kasus yang tidak ada”, untuk menemukan dan menandai kesalahan ini, yang sering kali terungkap dengan menemukan opini hakim yang memarahi pengacara di depan umum. Hingga saat ini, mereka telah mendokumentasikan lebih dari 500 kasus A.I. penyalahgunaan.

Mengapa Ini Penting

Stephen Gillers, seorang profesor etika di New York University School of Law, yakin kesalahan ini merusak reputasi pengacara, dan menambahkan bahwa pengacara seharusnya malu atas tindakan rekan-rekan mereka. Meluasnya adopsi chatbots – alat yang sedang diujicobakan oleh banyak perusahaan – dan kebutuhan pengacara untuk memastikan keakuratan pengajuan mereka, menciptakan lingkungan yang penuh tantangan.

Pedang Bermata Dua: A.I. Bantuan dan Kesalahan Manusia

Meskipun chatbot dapat menjadi alat yang berharga, membantu pengacara dan bahkan pihak yang berperkara pro se (“mereka yang mewakili diri mereka sendiri”) mengartikulasikan argumen hukum secara efektif, potensi kesalahannya sangat besar. Jesse Schaefer, seorang pengacara yang berbasis di Carolina Utara, mencatat bahwa chatbots dapat membantu orang “berbicara dalam bahasa yang dapat dimengerti oleh hakim”, bahkan dengan kesulitan yang mereka hadapi.

Namun, masalahnya semakin banyak berasal dari para profesional hukum yang mengandalkan A.I. tanpa verifikasi yang memadai. Konsekuensinya bisa sangat parah, seperti yang terlihat dalam kasus Tyrone Blackburn, seorang pengacara New York yang didenda $5.000 karena memasukkan berbagai halusinasi dan rekayasa ke dalam laporan hukum yang dibuat oleh A.I. Kliennya kemudian memecatnya dan mengajukan pengaduan ke pengacara.

Dampak Terbatas dari Hukuman Saat Ini

Meskipun masalah ini semakin meningkat, hukuman yang dijatuhkan pengadilan belum memberikan efek jera yang signifikan. Robert Freund yakin bahwa kesalahan yang terus terjadi ini menunjukkan bahwa konsekuensi yang ada saat ini tidak memadai. Para aktivis hukum berharap visibilitas yang ditawarkan oleh katalog publik akan meningkatkan akuntabilitas dan mendorong kehati-hatian saat menggunakan A.I.

Masa Depan A.I. dan Praktek Hukum

Peter Henderson, seorang profesor ilmu komputer di Universitas Princeton, sedang mengerjakan metode untuk mengidentifikasi kutipan palsu secara langsung, tidak hanya mengandalkan pencarian kata kunci. Pada akhirnya, ia dan pihak lain berharap bahwa peningkatan kesadaran dan kemajuan teknologi akan membantu mengurangi masalah “slop AI” dan menjaga integritas sistem hukum.

“Saya suka berbagi dengan pembaca saya cerita-cerita kecil seperti ini,” kata Eugene Volokh, seorang profesor hukum di Universitas California, Los Angeles. “kisah kebodohan manusia.”

Kesimpulannya, meningkatnya kesalahan yang disebabkan oleh AI dalam pengajuan hukum menghadirkan tantangan yang signifikan bagi profesi hukum. Munculnya upaya hukum, ditambah dengan penelitian yang sedang berlangsung mengenai metode deteksi, menunjukkan semakin besarnya komitmen untuk mengatasi masalah ini dan menjaga keakuratan dan keandalan proses hukum. Komunitas hukum harus bekerja secara aktif untuk memahami keterbatasan alat-alat ini dan memprioritaskan pengawasan manusia untuk mencegah kesalahan yang merugikan dan merugikan ini