Anthropic, sebuah laboratorium kecerdasan buatan terkemuka, dengan keras membantah tuduhan bahwa mereka sengaja mengganggu atau menonaktifkan model AI Claude jika digunakan untuk penggunaan militer oleh pemerintah AS. Perselisihan ini terjadi ketika Pentagon melarang teknologi Anthropic karena kekhawatiran akan potensi gangguan dalam operasi penting.
Inti Konflik
Departemen Pertahanan (DoD) menyebut Anthropic sebagai “risiko rantai pasokan”, yang secara efektif mencegah penggunaannya, termasuk melalui kontraktor. Tindakan ini berasal dari ketakutan bahwa Anthropic dapat secara sepihak menutup akses ke Claude, mengubah fungsinya, atau mendorong pembaruan berbahaya jika tidak setuju dengan aplikasi militer tertentu. Departemen Pertahanan berpendapat bahwa tindakan seperti itu dapat membahayakan operasi aktif.
Kepala sektor publik Anthropic, Thiyagu Ramasamy, menegaskan bahwa perusahaannya tidak memiliki kapasitas teknis untuk menyabotase teknologinya sendiri setelah diterapkan. Dalam pengajuan pengadilan, Ramasamy menyatakan bahwa Anthropic “tidak memiliki akses yang diperlukan untuk menonaktifkan teknologi atau mengubah perilaku model sebelum atau selama operasi berlangsung.” Dia menekankan bahwa tidak ada “pintu belakang” atau “tombol mematikan”, dan setiap pembaruan memerlukan persetujuan dari pemerintah dan penyedia cloud Amazon Web Services.
Pertarungan Hukum dan Implikasi Finansial
Anthropic telah mengajukan dua tuntutan hukum yang menantang larangan Departemen Pertahanan sebagai inkonstitusional. Perusahaan tersebut meminta perintah darurat untuk membatalkan keputusan tersebut, namun negosiasi gagal meskipun Anthropic bersedia menjamin secara kontrak bahwa mereka tidak akan memveto pengambilan keputusan militer yang sah. Pentagon tetap skeptis, dengan menyatakan pihaknya “mengambil langkah-langkah tambahan untuk memitigasi risiko rantai pasokan” dengan bekerja sama dengan penyedia cloud untuk mencegah perubahan sepihak oleh Anthropic.
Dampak dari larangan tersebut sudah terlihat jelas, dimana pelanggan membatalkan transaksi. Anthropic mengklaim perselisihan itu dapat merugikan pendapatan perusahaan hingga miliaran dolar. Sidang pengadilan dijadwalkan pada 24 Maret, di mana hakim dapat memutuskan pembatalan sementara larangan tersebut.
Konteks yang Lebih Luas
Konflik ini menyoroti meningkatnya ketegangan antara pengembang AI dan kepentingan keamanan nasional. Pentagon telah menggunakan Claude untuk menganalisis data, menyusun memo, dan bahkan membantu dalam menghasilkan rencana pertempuran. Kekhawatiran pemerintah bukannya tidak berdasar: laboratorium AI lainnya, seperti OpenAI, pada awalnya melarang penggunaan militer sebelum mengizinkannya melalui kemitraan dengan Microsoft. Sementara itu, perusahaan seperti Smack Technologies telah melatih model secara eksplisit untuk operasi di medan perang.
Insiden ini menggarisbawahi pertanyaan penting: sejauh mana perusahaan AI swasta harus memiliki kendali atas teknologi yang diterapkan dalam konteks keamanan nasional? Perdebatan ini melampaui Anthropic, karena industri AI yang lebih luas bergulat dengan implikasi etis dan strategis dari aplikasi militer.
Pada akhirnya, perselisihan antara Anthropic dan Pentagon berfungsi sebagai peringatan bahwa integrasi AI ke dalam peperangan penuh dengan ketidakpastian dan risiko, sehingga memerlukan pertimbangan yang cermat terhadap kemampuan teknologi dan potensi konflik kepentingan.























