Kasus Anthropic melawan Pentagon dapat membuka ruang bagi regulasi AI

San Fransisco, Amerika Serikat: Seorang hakim di Kalifornia telah mempersiapkan potensi kemenangan bagi Anthropic dalam mendorong regulasi senjata yang didukung oleh kecerdasan buatan, sebuah kelemahan bagi pemerintahan Presiden Amerika Serikat Donald Trump, yang membawa perusahaan tersebut mendekat untuk tidak kehilangan miliaran kontrak pemerintah.

Pemerintahan Trump telah menetapkan Anthropic sebagai “risiko rantai pasokan” karena pendiriannya terhadap peningkatan regulasi, sebuah langkah yang akan menghalangi perusahaan tersebut dari kontrak militer tertentu.

Cerita yang Direkomendasikan

daftar 4 barang

daftar akhir

Departemen Pertahanan Amerika Serikat mungkin secara ilegal mencoba menghukum Anthropic karena berupaya membatasi penggunaan model kecerdasan buatan (AI) untuk senjata tanpa pengawasan manusia atau untuk pengawasan massal, kata seorang hakim distrik.

“Sepertinya upaya untuk melumpuhkan Anthropic,” kata Hakim Rita Lin dari pengadilan distrik California Utara pada hari Selasa.

Analis hukum mengatakan hal ini dapat membuka peluang bagi Anthropic untuk memberikan perintah awal agar tidak dianggap sebagai risiko rantai pasokan oleh Departemen Pertahanan.

“Tujuan mereka tidak sepenuhnya didukung oleh Departemen Perang,” kata Charlie Bullock, peneliti senior di Institute for Law and AI, sebuah lembaga pemikir yang berbasis di Boston, tentang penetapan Anthropic oleh Departemen Pertahanan sebagai risiko rantai pasokan.

Ini adalah pertama kalinya sebuah perusahaan AS ditetapkan sebagai perusahaan tersebut dan hal ini akan mengakibatkan izin kontrak pemerintah serta kontrak kontraktor pemerintah.

Pada tanggal 17 Maret, Departemen Pertahanan mengatakan kepada pengadilan bahwa pendirian Anthropic bahwa produknya tidak digunakan untuk senjata bertenaga AI tanpa pengawasan manusia atau untuk pengawasan dalam negeri akan mencakup “kemampuannya untuk mengendalikan operasinya yang sah”.

Antropis gugatan Untuk menghapus penunjukan tersebut sedang berlangsung mengenai sejauh mana kapasitas AI, bagaimana AI dapat membentuk kehidupan, dan apakah AI akan diatur.

“Kasus ini adalah momen untuk memikirkan hubungan seperti apa yang kita inginkan antara pemerintah dan perusahaan dan hak-hak apa yang dimiliki warga negara,” kata Robert Trager, salah satu direktur Oxford Martin AI Governance Initiative di Universitas Oxford.

Alison Taylor, profesor klinis bisnis dan masyarakat di Stern School of Business di New York University, mengatakan, “Di AS, teknologi bergerak maju seperti kereta barang dan gagasan tentang pengawasan manusia semakin sulit. Namun masyarakat khawatir akan hilangnya pekerjaan, pusat data, pengawasan, dan senjata terkait AI. Hal ini berarti opini publik mulai beralih dari AI.”

Selama dua minggu terakhir, sejumlah perusahaan teknologi, lembaga pemikir, dan kelompok hukum mengajukan laporan pengadilan untuk mendukung pendirian Anthropic, meminta pengawasan dan regulasi AI untuk senjata dan pengawasan massal. Dukungan tersebut berkisar dari Microsoft dan karyawan pesaing Anthropic, OpenAI dan Google Inc, hingga para Teolog Moral Katolik dan Ahli Etika, antara lain.

Dalam laporan singkatnya, para insinyur dari OpenAI dan Google DeepMind, yang menyampaikan informasi pribadi mereka, mengatakan, kasus ini “sangat penting bagi industri kita” dan peraturan tersebut sangat penting karena “rantai pemikiran model AI sering kali tersembunyi dari operator mereka, dan cara kerja internal mereka tidak jelas bahkan bagi pengembangnya. Dan keputusan yang mereka buat dalam konteks yang mematikan tidak dapat diubah.”

Dengan latar belakang kekhawatiran tersebut, Taylor dari NYU mengatakan, “Anthropic membuat taruhan yang berisiko namun bagus bahwa memposisikan dirinya sebagai perusahaan AI yang beretika akan membantu dalam membentuk peraturan ketika hal itu benar-benar terjadi.”

Halusinasi dan masalah lainnya

Anthropic telah mengerjakan kontrak Pentagon secara ekstensif dan model Claude Gov-nya telah diintegrasikan ke dalam Proyek Maven milik Palantir, yang membantu analisis data, pemilihan target, dan tugas-tugas serupa lainnya, yang dilaporkan termasuk dalam perang AS-Israel yang sedang berlangsung melawan Iran.

Meskipun senjata bertenaga AI saat ini tidak dapat digunakan tanpa pengawasan manusia, Anthropic telah meminta pengawasan manusia yang berkelanjutan dalam kontraknya dengan Departemen Pertahanan karena, katanya, model AI dapat berhalusinasi dan belum sepenuhnya dapat diandalkan. Meskipun halusinasi merupakan kekhawatiran dalam semua model AI, potensi bahaya dari penggunaan senjata bisa sangat besar.

Mary Cummings, seorang profesor teknik sipil di George Mason University College of Engineering and Computing dan direktur Mason Autonomy and Robotic Center, menemukan bahwa setengah dari semua kecelakaan mobil self-driving di San Francisco, tempat sebagian besar mobil tersebut dikerahkan, disebabkan oleh mobil yang salah mengira ada objek di depannya dan pengereman yang menyebabkan mobil di belakangnya menabraknya.

“Kami menyebut penghentian hantu dan ini disebabkan oleh halusinasi,” ujarnya kepada Al Jazeera.

Dalam sebuah makalah di bulan Februari, dia diingatkan bahwa, “Penggabungan AI ke dalam senjata akan menghadapi masalah yang sama seperti mobil self-driving, termasuk halusinasi.”

Annika Schoene, asisten profesor yang meneliti dampak AI pada sistem kesehatan di Bouve College of Health Sciences di Northeastern University, mengatakan, “Halusinasi bukan satu-satunya kekhawatiran. Model seperti ini dapat memiliki alur kerja, bias data, atau bias model yang berbeda. Kami belum tahu seberapa aman model tersebut dari manipulasi asing. Ada banyak hal dalam hal ini dan kami belum sepakat tentang apa yang kami anggap aman dan apa yang tidak.”

Mengingat model AI, termasuk Claude Gov, tidak dibuat oleh militer, maka diperlukan pengujian seberapa andal model tersebut sekaligus mengintegrasikannya ke dalam sistem militer, kata Aalok Mehta, direktur Wadhwani AI Center di lembaga think tank, Center for Strategic and International Studies yang berbasis di Washington, DC.

“Evaluasi dan pengujian tolok ukur bisa jadi lambat. Model memenuhi sistem pengujian yang kami miliki.”

Ada pula yang mengatakan bahwa bukan teknologi yang menyebabkan kesalahan, melainkan cara penggunaannya.

“Saya ingat, di [early] Pada tahun 2020-an ada harapan bahwa dengan alat seperti itu, kematian warga sipil akan berkurang,” kata Andrew Reddie, profesor peneliti di University of California, Goldman School of Public Policy di Berkeley dan pendiri Berkeley Risk and Security Lab.

“Tetapi hal itu belum benar-benar terjadi karena hal ini bergantung pada data yang Anda berikan. Tantangannya bukan pada AI, tapi pada target yang sah,” katanya tentang bagaimana personel militer memilih target dari berbagai macam alat yang disediakan.

Mengenai pengawasan massal di dalam negeri, meskipun tidak jelas apakah Pentagon saat ini menggunakan AI untuk melakukan hal tersebut, peneliti OpenAI dan Google telah menggarisbawahi kekhawatiran mengenai hal ini dalam pengajuan pengadilan mereka.

Lebih dari 70 juta kamera, riwayat transaksi kartu kredit, dan data sejenis lainnya dapat dikumpulkan untuk menyatukan seluruh populasi AS, kata mereka. “Bahkan kesadaran bahwa kemampuan seperti itu ada menimbulkan dampak buruk terhadap partisipasi demokratis.”

‘Kemenangan hubungan masyarakat’

Hingga kasus ini diangkat ke pengadilan dan di tengah meningkatnya kemarahan masyarakat, Anthropic dikatakan memiliki hubungan yang lebih dalam dengan Pentagon dibandingkan banyak pesaingnya, dan hubungan yang menguntungkan keduanya.

“Pentagon berpendapat Anthropic memiliki produk terbaik untuk penggunaan militer sehingga memberikan tekanan pada perusahaan tersebut” untuk terus menggunakannya, kata Mehta dari CSIS.

Mengenai Anthropic, “kondisi ekonomi sangat menantang bagi industri AI. Jadi, Anda memerlukan sektor bisnis publik yang kuat dengan kontrak bernilai miliaran dolar,” katanya.

OpenAI menggantikan Anthropic untuk bekerja dengan Pentagon segera setelah kontrak Anthropic diputuskan. Namun Anthropic tampaknya telah mencapai “kemenangan dalam bidang hubungan masyarakat jika bukan dalam hal substansi,” kata Taylor dari NYU.

Posisinya sebagai perusahaan AI yang beretika mungkin telah memenangkan popularitas masyarakat. Pengunduhan Claude meningkat tajam dalam beberapa minggu setelah kontrak dibatalkan.

Namun perusahaan yang harus mengambil kebijakan merupakan indikasi kegagalan pemerintah dalam melakukan hal tersebut, kata Brianna Rosen, direktur eksekutif Program Oxford untuk Kebijakan Siber dan Teknologi.

“Untuk pertama kalinya, Amerika Serikat menggunakan AI untuk menghasilkan target dalam operasi tempur skala besar di Iran,” katanya. “Dan anggota parlemen masih memperdebatkan apakah akan menarik garis merah pada senjata yang sepenuhnya otonom. Tidak adanya pemerintahan sendiri merupakan risiko keamanan nasional.”

Perdebatan mengenai regulasi senjata AI hanya memperluas kesenjangan antara kekhawatiran masyarakat dan keengganan masyarakat untuk meregulasi inovasi AI secara berlebihan di bidang lain. Jajak pendapat menunjukkan bahwa masyarakat Amerika khawatir terhadap potensi kehilangan pekerjaan dan dampak perubahan iklim akibat AI. Jajak pendapat yang dilakukan pada bulan April 2025 oleh Universitas Quinnipac menemukan bahwa 69 persen warga Amerika berpendapat pemerintah dapat berbuat lebih banyak untuk mengendalikan AI.

Keretakan ini menyebabkan industri AI muncul sebagai donor utama dalam pemilu paruh waktu tahun 2026. Leading The Future, sebuah PAC super yang telah menerima lebih dari $100 juta dari Presiden OpenAI Greg Brockman, salah satu pendiri Palantir Joe Lonsdale dan lainnya, telah memuat iklan melawan Alex Bores, anggota majelis New York yang mencalonkan diri untuk Kongres. Bosan mensponsori tindakan RAISE yang akan mengamanatkan pengembang AI untuk mengungkapkan protokol keselamatan atau kecelakaan.

Pada bulan Februari, Anthropic mengumumkan sumbangan $20 juta ke Public First Action, sebuah PAC yang akan mendukung kandidat yang mendukung regulasi AI, termasuk Bores.

Sementara perusahaan AI berupaya mengembangkan standar industri untuk pengujian dan evaluasi model mereka, Anthropic mendorong adanya peraturan karena pelaku kejahatan dapat melanggar standar yang tidak mengikat tersebut, kata Institute for Law dan Bullock dari AI.

Antara keputusan pemerintah mengenai kasus Antropis dan pemilu paruh waktu yang akan datang, para ahli mengatakan peristiwa-peristiwa tersebut dapat menentukan jalannya regulasi AI.

“Hal ini dapat menciptakan ruang untuk kebijakan pengembangan yang lebih hati-hati,” kata Rosen dari Oxford.

  • Related Posts

    Operasi Ketupat 2026 Sukses, Kakorlantas: Korban Meninggal Turun 30,41 Persen

    Jakarta – Polri secara resmi mengakhiri Operasi Ketupat 2026, dilanjutkan dengan Kegiatan Rutin Yang Ditingkatkan (KRYD) hingga 29 Maret sesuai arahan Kapolri Jenderal Listyo Sigit Prabowo. Polri mencatatkan keberhasilan dalam…

    Kakorlantas: Operasi Ketupat 2026 Resmi Berakhir, Dilanjutkan KRYD hingga 29 Maret

    Jakarta – Atas izin Kapolri Jenderal Listyo Sigit Prabowo, Kakorlantas Polri Irjen Agus Suryonugroho secara resmi menutup pelaksanaan Operasi Ketupat 2026. Meski operasi kemanusiaan ini telah berakhir, pengamanan di jalur…

    Tinggalkan Balasan

    Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *