Pemerintah AS telah secara resmi menetapkan Anthropic, sebuah perusahaan kecerdasan buatan terkemuka, sebagai risiko keamanan nasional yang “tidak dapat diterima”. Keputusan ini berasal dari kekhawatiran bahwa perusahaan tersebut berpotensi memanipulasi teknologi AI miliknya – termasuk chatbot Claude yang populer – untuk memprioritaskan kepentingannya sendiri di atas tujuan strategis AS, khususnya dalam skenario konflik.
Pemerintah Kekhawatiran Terhadap Manipulasi AI
Dalam pengajuan pengadilan setebal 40 halaman yang diajukan ke Pengadilan Distrik AS untuk Distrik Utara California, pengacara pemerintah berpendapat bahwa sistem AI “sangat rentan terhadap manipulasi.” Memberikan akses Anthropic ke infrastruktur Departemen Pertahanan (DoD), menurut mereka, akan menimbulkan kerentanan yang tidak dapat diterima dalam rantai pasokan militer. Pengajuan tersebut menyoroti bahwa kendali Anthropic atas teknologinya menciptakan risiko yang dapat menonaktifkan atau mengubah sistem dengan cara yang merugikan kemampuan perang AS.
Tanggapan Anthropic dan Pertarungan Hukum yang Sedang Berlangsung
Anthropic secara terbuka menentang klaim ini, mengutip pernyataan dari CEO Dario Amodei, yang menekankan bahwa keputusan militer mengenai penggunaan AI berada di tangan angkatan bersenjata, bukan perusahaannya. Amodei menyatakan Anthropic tidak pernah keberatan atau membatasi operasi militer yang melibatkan teknologinya.
Namun sikap pemerintah tersebut memicu tindakan hukum. Pada tanggal 9 Maret, Anthropic mengajukan dua tuntutan hukum yang menantang penetapan Menteri Pertahanan Pete Hegseth baru-baru ini atas perusahaan tersebut sebagai “risiko rantai pasokan” – satu di pengadilan distrik California dan satu lagi di Pengadilan Banding AS untuk Sirkuit Distrik Columbia.
Mengapa Ini Penting: Konteks yang Lebih Luas
Perselisihan ini menggarisbawahi meningkatnya ketegangan antara pesatnya perkembangan AI dan pertimbangan keamanan nasional. Pemerintah di seluruh dunia semakin memperhatikan perusahaan-perusahaan AI, terutama perusahaan-perusahaan yang memiliki akses terhadap sistem militer atau pemerintahan yang sensitif. Kasus ini menyoroti risiko bawaan dari mengandalkan infrastruktur AI yang dikendalikan swasta dalam aplikasi pertahanan penting.
Langkah pemerintah AS ini menandakan tren yang lebih luas menuju pengawasan yang lebih ketat terhadap rantai pasokan AI, yang berpotensi mengarah pada peraturan yang lebih ketat bagi perusahaan AI yang beroperasi dalam domain keamanan nasional. Hasil dari tantangan hukum Anthropic kemungkinan besar akan menjadi preseden mengenai cara pemerintah mengelola risiko AI di masa depan.
Situasi ini semakin diperumit oleh fakta bahwa pemerintah menggunakan istilah “Departemen Perang” dan bukan “Departemen Pertahanan”, yang merupakan preferensi dari pemerintahan Trump, sehingga menambah lapisan konteks politik dalam perselisihan tersebut.
Pada akhirnya, penilaian pemerintah AS terhadap Anthropic sebagai risiko keamanan nasional mewakili titik kritis dalam perkembangan hubungan antara teknologi AI dan strategi pertahanan.























