Keamanan AI Ditinggalkan Saat Persaingan Meningkat: Pentagon, Anthropic, dan OpenAI dalam Perlombaan Berbahaya

10

Konsensus singkat seputar keselamatan AI, yang pernah menjadi tujuan bersama antara perusahaan, anggota parlemen, dan masyarakat, kini dengan cepat terpecah. Apa yang awalnya merupakan dorongan hati-hati terhadap regulasi dan pengawasan telah berubah menjadi kompetisi yang sangat ketat di mana militer AS dan perusahaan-perusahaan AI terkemuka memprioritaskan kecepatan dan dominasi dibandingkan pertimbangan etis. Sikap agresif Pentagon dan tanggapan agresif dari Anthropic dan OpenAI menandakan adanya perubahan yang berbahaya: keamanan kini menjadi prioritas kedua setelah keuntungan strategis.

Pentagon vs. Antropik: Titik Balik

Konflik antara Departemen Pertahanan (sekarang berganti nama menjadi Departemen Perang) dan Anthropic menggambarkan masalah ini dengan sempurna. Anthropic sebelumnya bersikeras bahwa model AI Claude-nya tidak akan digunakan untuk senjata otonom atau pengawasan massal, suatu kondisi yang kini ingin dihapus oleh Pentagon. Penolakan militer untuk menerima pembatasan ini menyebabkan Anthropic kehilangan kontraknya dan diberi label sebagai “risiko rantai pasokan,” yang secara efektif menghalangi mereka untuk melakukan pekerjaan pemerintah di masa depan.

Ini bukan hanya soal perselisihan kontrak. Ini tentang tekad militer untuk menghapus segala pembatasan penggunaan AI, meskipun itu berarti melampaui batas legalitas. Pertanyaannya bukanlah apakah militer dapat membuat drone otonom yang mematikan, namun apakah militer akan, dan seberapa cepat hal tersebut dapat dilakukan. Kurangnya perjanjian internasional berarti negara-negara lain akan mengikuti jejaknya, sehingga menciptakan perlombaan senjata AI yang tak terelakkan.

Erosi Protokol Keamanan

Perubahan terkini yang dilakukan Anthropic pada “Kebijakan Penskalaan yang Bertanggung Jawab” menggarisbawahi perubahan tersebut. Kebijakan tersebut, yang dirancang untuk mencegah risiko bencana AI dengan mengaitkan rilis model dengan prosedur keselamatan, diam-diam telah ditinggalkan. Perusahaan mengakui bahwa kebijakan tersebut gagal menciptakan konsensus luas yang diperlukan untuk menegakkan standar keselamatan. Lingkungan saat ini lebih memprioritaskan daya saing AI dan pertumbuhan ekonomi, sehingga tidak lagi membahas masalah keselamatan.

Hasilnya adalah kompetisi sederhana di mana OpenAI dengan cepat bergerak untuk mengisi kekosongan yang ditinggalkan oleh pemutusan kontrak Anthropic. CEO OpenAI Sam Altman mengklaim langkahnya dimaksudkan untuk mendukung Anthropic, tetapi CEO Anthropic Dario Amodei menuduhnya meremehkan posisi perusahaan untuk mendapatkan dukungan dari pemerintah. Pertikaian internal ini menunjukkan bahwa bahkan di laboratorium AI terkemuka sekalipun, keselamatan semakin dipandang sebagai sebuah tanggung jawab dan bukan prioritas.

Ilusi Kemajuan

Terlepas dari kenyataan yang suram, perusahaan AI bersikeras bahwa keselamatan tetap penting. Chief Science Officer Anthropic, Jared Kaplan, berpendapat bahwa laboratorium penelitian masih memprioritaskan pengembangan etika. OpenAI menunjukkan pertumbuhan organisasi keselamatan AI dan upaya regulasi Uni Eropa sebagai tanda kemajuan.

Namun, klaim ini tidak ada gunanya jika dibandingkan dengan tindakan Pentagon dan upaya tanpa henti untuk mendominasi industri. OpenAI mengakui bahwa meskipun pihaknya sudah menerapkan pengamanan, tidak ada jaminan bahwa mereka akan tahan terhadap tekanan dari militer, yang dapat menggunakan Undang-Undang Produksi Pertahanan untuk mengambil kendali jika diperlukan.

Kesimpulan yang suram

Situasinya jelas: AI terlalu kuat, terlalu menggoda, untuk dikendalikan. Seperti yang dikatakan oleh CEO Anthropic Dario Amodei, “Inilah jebakannya.” Perlombaan untuk mengembangkan dan menerapkan AI pasti akan menutupi masalah keselamatan, menjadikan umat manusia rentan terhadap potensi yang tidak terkendali. Era optimisme yang hati-hati telah berakhir. Masa depan AI ditentukan oleh persaingan, dan keselamatan akan menjadi korban pertama.