Pentagon secara resmi mendefinisikan Anthropic sebagai ‘risiko rantai pasokan’

Administrasi Trump menindaklanjuti ancamannya untuk menandai perusahaan kecerdasan buatan Anthropic sebagai risiko rantai pasokan dalam langkah yang belum pernah terjadi sebelumnya yang dapat memaksa kontraktor pemerintah lainnya untuk berhenti menggunakan chatbot AI Claude.

Video Rekomendasi


Pentagon mengatakan dalam sebuah pernyataan Kamis bahwa mereka telah “secara resmi memberitahu pimpinan Anthropic bahwa perusahaan dan produknya dianggap sebagai risiko rantai pasokan, berlaku segera.”

Keputusan ini tampaknya menutup peluang untuk negosiasi lebih lanjut dengan Anthropic, hampir seminggu setelah Presiden Donald Trump dan Menteri Pertahanan Pete Hegseth menuduh perusahaan tersebut membahayakan keamanan nasional.

Trump dan Hegseth mengumumkan serangkaian ancaman hukuman Jumat lalu, menjelang perang Iran, setelah CEO Anthropic Dario Amodei menolak mundur karena kekhawatiran bahwa produk perusahaan tersebut dapat digunakan untuk pengawasan massal terhadap warga Amerika atau senjata otonom.

Amodei mengatakan dalam sebuah pernyataan Kamis bahwa “kami tidak percaya tindakan ini secara hukum sah, dan kami tidak melihat pilihan lain selain menantangnya di pengadilan.”

Pernyataan Pentagon menyebutkan, “ini berkaitan dengan satu prinsip dasar: militer harus dapat menggunakan teknologi untuk semua tujuan yang sah. Militer tidak akan membiarkan vendor menyusup ke dalam rantai komando dengan membatasi penggunaan sah dari kemampuan penting dan menempatkan prajurit kita dalam risiko.“

Amodei membantah bahwa pengecualian sempit yang dicari Anthropic untuk membatasi pengawasan dan senjata otonom “berkaitan dengan penggunaan tingkat tinggi, dan bukan pengambilan keputusan operasional.”

Dia mengatakan ada “percakapan produktif” dengan Pentagon dalam beberapa hari terakhir tentang apakah mereka dapat terus menggunakan Claude atau mengatur “transisi yang lancar” jika tidak ada kesepakatan yang dicapai. Trump memberi waktu enam bulan kepada militer untuk menghentikan penggunaan Claude, yang sudah banyak digunakan dalam platform militer dan keamanan nasional. Amodei mengatakan prioritasnya adalah memastikan prajurit tidak akan “kehilangan alat penting di tengah operasi tempur besar.”

Beberapa kontraktor militer sudah mulai memutus hubungan dengan Anthropic, sebuah bintang yang sedang naik di industri teknologi yang menjual Claude ke berbagai bisnis dan lembaga pemerintah. Lockheed Martin mengatakan akan “mengikuti arahan Presiden dan Departemen Perang” dan mencari penyedia model bahasa besar lainnya.

“Kami mengharapkan dampak minimal karena Lockheed Martin tidak bergantung pada satu vendor LLM untuk bagian apapun dari pekerjaan kami,” kata perusahaan tersebut.

Bagaimana Departemen Pertahanan akan menafsirkan lingkup penetapan risiko ini belum jelas. Amodei mengatakan bahwa pemberitahuan yang diterima Anthropic dari Pentagon pada hari Rabu menunjukkan bahwa itu hanya berlaku untuk penggunaan Claude oleh pelanggan sebagai bagian langsung dari kontrak militer mereka.

Microsoft mengatakan bahwa pengacara mereka telah mempelajari aturan tersebut dan perusahaan “dapat terus bekerja sama dengan Anthropic dalam proyek non-pertahanan.”

Pentagon Dikritik atas Keputusannya

Keputusan Pentagon untuk menerapkan aturan yang dirancang untuk mengatasi ancaman pasokan yang ditimbulkan oleh lawan asing mendapat kecaman luas. Kode federal mendefinisikan risiko rantai pasokan sebagai “risiko bahwa lawan dapat melakukan sabotase, memperkenalkan fungsi berbahaya secara malicious, atau merusak sistem lain untuk mengganggu, menurunkan kualitas, atau memata-matai.”

Senator Kirsten Gillibrand dari New York, anggota Komite Angkatan Bersenjata dan Komite Intelijen Senat dari Partai Demokrat, menyebutnya “penyalahgunaan alat yang berbahaya yang dimaksudkan untuk mengatasi teknologi yang dikendalikan lawan.”

“Tindakan ceroboh ini bersifat sembrono, merusak diri sendiri, dan merupakan hadiah bagi lawan kita,” katanya dalam sebuah pernyataan tertulis Kamis.

Neil Chilson, mantan kepala teknolog Federal Trade Commission dari Partai Republik yang kini memimpin kebijakan AI di Abundance Institute, mengatakan keputusan ini tampak seperti “overreach besar-besaran yang akan merugikan sektor AI AS dan kemampuan militer untuk memperoleh teknologi terbaik bagi prajurit AS.”

Sehari sebelumnya, sekelompok mantan pejabat pertahanan dan keamanan nasional mengirim surat kepada pembuat kebijakan AS yang menyatakan “keprihatinan serius” tentang penetapan tersebut.

“Penggunaan wewenang ini terhadap perusahaan domestik Amerika adalah penyimpangan mendalam dari tujuan aslinya dan menetapkan preseden berbahaya,” kata surat dari mantan pejabat dan pakar kebijakan, termasuk mantan direktur CIA Michael Hayden dan pemimpin militer, angkatan udara, dan angkatan laut yang pensiun.

Mereka menambahkan bahwa penetapan semacam ini dimaksudkan untuk “melindungi Amerika Serikat dari infiltrasi oleh lawan asing — dari perusahaan yang bergantung pada Beijing atau Moskow, bukan dari inovator Amerika yang beroperasi secara transparan di bawah hukum. Menerapkan alat ini untuk menghukum perusahaan AS karena menolak menghapus perlindungan terhadap pengawasan domestik massal dan senjata otonom penuh adalah kesalahan kategori dengan konsekuensi yang jauh melampaui perselisihan ini.”

Anthropic Melihat Peningkatan Unduhan Konsumen

Meskipun kehilangan kemitraan besar dengan kontraktor pertahanan, Anthropic mengalami lonjakan unduhan dari konsumen selama seminggu terakhir karena orang-orang mendukung sikap moralnya. Lebih dari satu juta orang mendaftar untuk Claude setiap hari minggu ini, kata perusahaan, menjadikannya melampaui ChatGPT dari OpenAI dan Gemini dari Google sebagai aplikasi AI teratas di lebih dari 20 negara di toko aplikasi Apple.

Perselisihan dengan Pentagon juga semakin memperdalam rivalitas panas Anthropic dengan OpenAI yang dimulai saat mantan pemimpin OpenAI, termasuk Amodei, memulai Anthropic pada tahun 2021.

Beberapa jam setelah Pentagon menghukum Anthropic Jumat lalu, OpenAI mengumumkan kesepakatan untuk secara efektif menggantikan Anthropic dengan ChatGPT di lingkungan militer yang bersifat rahasia.

OpenAI mengatakan mereka mencari perlindungan serupa terhadap pengawasan domestik dan senjata otonom penuh, tetapi kemudian harus mengubah perjanjian mereka, yang menyebabkan CEO Sam Altman mengatakan bahwa dia seharusnya tidak terburu-buru menandatangani kesepakatan yang “terlihat oportunistik dan ceroboh.”

Amodei juga menyatakan penyesalannya atas perannya dalam “hari sulit bagi perusahaan” tersebut, dan Kamis dia ingin “secara langsung meminta maaf” atas catatan internal yang dia kirim ke staf Anthropic yang menyerang perilaku OpenAI dan menyiratkan bahwa Anthropic dihukum karena tidak memberi “pujian seperti diktator” kepada Trump.

**Bergabunglah dengan kami di Fortune Workplace Innovation Summit **19–20 Mei 2026, di Atlanta. Era baru inovasi tempat kerja telah tiba—dan buku panduan lama sedang ditulis ulang. Dalam acara eksklusif dan penuh energi ini, para pemimpin paling inovatif di dunia akan berkumpul untuk menjelajahi bagaimana AI, manusia, dan strategi bersatu kembali untuk mendefinisikan masa depan kerja. Daftar sekarang.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan