Perseteruan panas membara antara pemerintah Amerika Serikat dan Anthropic, pengembang AI terkemuka, kini jadi sorotan. Pemicunya? Dugaan penggunaan software AI Claude milik Anthropic dalam operasi militer rahasia AS yang disebut-sebut berujung pada penculikan Presiden Venezuela Nicholas Maduro awal tahun ini.
Menteri Pertahanan AS Pete Hegseth sudah memberi ultimatum: Anthropic harus melonggarkan aturan penggunaan alat AI-nya oleh Pentagon hingga Jumat mendatang, atau berisiko kehilangan kontrak besar pemerintah. Namun, Anthropic memilih jalan berbeda. Mereka kekeuh mempertahankan aturan ketat yang melarang teknologi AI-nya dipakai untuk pengawasan domestik di AS atau memprogram senjata otonom yang bisa menyerang target tanpa campur tangan manusia.
Anthropic, yang didirikan pada 2021 oleh mantan eksekutif OpenAI, memang dikenal dengan komitmen 'pengembangan AI yang bertanggung jawab'. Mereka bahkan menjadi pengembang AI pertama yang terlibat dalam operasi rahasia Departemen Pertahanan AS. Model bahasa besar (LLM) seperti Claude, mampu meringkas teks, menganalisis data, hingga menyusun memo. Namun, potensi LLM untuk sistem senjata otonom menimbulkan dilema etika besar, dan sebagian besar perusahaan AI melarang penggunaan semacam itu.
Kekhawatiran terhadap potensi penyalahgunaan AI juga bukan isapan jempol belaka. Mrinank Sharma, peneliti keamanan AI di Anthropic, baru-baru ini mengundurkan diri karena isu tersebut. Dalam pernyataannya, Sharma menyoroti 'bahaya' yang mengancam dunia, tak hanya dari AI, tapi juga serangkaian krisis yang saling terhubung. Ini menunjukkan bahwa bahkan di internal pengembang AI pun, ada gejolak etika yang serius. Sebelumnya, Anthropic juga pernah melaporkan upaya kelompok peretas yang disponsori negara Tiongkok yang mencoba memanipulasi kode Claude untuk menyusup ke berbagai target global.
Konflik ini menyoroti perdebatan global yang lebih luas: bagaimana menyeimbangkan inovasi teknologi yang powerful dengan batasan etika dan keamanan. Bagi masyarakat, ini berarti perlunya pengawasan ketat terhadap penggunaan AI, terutama oleh militer, agar tidak melanggar privasi, hak asasi manusia, atau memicu konflik tak terkendali dengan senjata otonom. Kejadian ini juga menjadi pengingat bahwa AI, di tangan yang salah, bisa menjadi alat yang sangat berbahaya, jauh melampaui kemampuan manusia biasa.