Ketegangan memuncak antara raksasa teknologi kecerdasan buatan (AI) Anthropic dengan pemerintah Amerika Serikat. Setelah Anthropic menolak melepas batasan etis pada teknologinya agar tidak digunakan untuk senjata otonom dan pengawasan domestik, Pentagon resmi memasukkannya ke daftar hitam sebagai "risiko rantai pasok keamanan nasional".
Pemerintah AS, di era Presiden Donald Trump, melalui Menteri Pertahanan Pete Hegseth, beralasan bahwa penolakan Anthropic untuk menghapus "guardrails" atau batasan penggunaan tersebut merupakan tindakan yang membahayakan keamanan nasional, bukan sekadar kebebasan berpendapat. Gugatan hukum Anthropic di pengadilan federal California yang menantang keputusan ini pun ditolak oleh pemerintah, yang menyatakan bahwa sengketa ini berakar pada negosiasi kontrak dan isu keamanan, bukan balas dendam politik.
Anthropic, pengembang asisten AI populer Claude, menegaskan bahwa AI belum cukup aman untuk digunakan dalam senjata otonom. Mereka juga secara prinsip menentang pengawasan domestik. Perusahaan ini menilai langkah pemerintah AS "belum pernah terjadi sebelumnya dan melanggar hukum", seraya melanggar hak kebebasan berbicara dan proses hukum yang adil, serta tidak mengikuti prosedur resmi.
Keputusan blacklist ini, meski hanya mengecualikan Anthropic dari sejumlah kontrak militer terbatas, berpotensi merusak reputasi perusahaan dan menyebabkan kerugian miliaran dolar. Perdebatan ini menyoroti dilema besar di era digital: bagaimana menyeimbangkan inovasi teknologi yang pesat dengan kebutuhan akan kontrol etis dan keamanan nasional. Kasus ini menjadi preseden penting dalam mendefinisikan batasan antara kemajuan AI dan potensi penyalahgunaannya, memicu diskusi luas tentang siapa yang seharusnya memiliki kendali atas arah perkembangan teknologi AI.