Ketegangan yang meningkat antara laboratorium kecerdasan buatan terkemuka dan lembaga pertahanan AS telah berkembang menjadi bentrokan berisiko tinggi mengenai AI antropik dan penggunaan di medan perang.
Anthropic tetap teguh menentang tekanan Pentagon
Anthropic menolak tuntutan Departemen Pertahanan AS untuk menghapus batasan keselamatan AI utama dari sistemnya, meskipun kontraknya yang bernilai 200 juta dolar kini terancam. Perusahaan ini telah menyatakan bahwa mereka tidak akan mundur dalam sengketa dengan DoD mengenai bagaimana model canggih mereka dapat digunakan di jaringan militer.
Saingan startup ini, OpenAI, Google, dan xAI, mendapatkan penghargaan serupa dari DoD hingga 200 juta dolar pada 2023. Namun, perusahaan-perusahaan tersebut setuju membiarkan Pentagon menggunakan sistem mereka untuk semua misi yang sah di lingkungan militer yang tidak diklasifikasi, memberikan fleksibilitas operasional yang lebih luas kepada pemerintah.
Sebaliknya, Anthropic menandatangani kontrak sendiri sebesar 200 juta dolar dengan DoD pada Juli dan menjadi laboratorium AI pertama yang menyematkan modelnya langsung ke dalam alur kerja misi di jaringan rahasia. Selain itu, alat mereka diintegrasikan ke dalam operasi pertahanan yang sensitif, menempatkan perusahaan ini di pusat pembangunan AI keamanan nasional AS.
Negosiasi dengan pejabat Pentagon menjadi semakin tegang dalam beberapa minggu terakhir. Seorang yang akrab dengan pembicaraan mengatakan bahwa ketegangan ini “berasal dari beberapa bulan lalu,” jauh sebelum diketahui secara publik bahwa Claude digunakan dalam operasi AS yang terkait dengan penyitaan Presiden Venezuela Nicolás Maduro.
Perselisihan tentang pengawasan dan senjata otonom
Inti dari konflik ini adalah sejauh mana otoritas militer dapat mendorong model AI yang kuat menuju pengawasan dan otonomi. Anthropic mencari jaminan mengikat bahwa teknologinya tidak akan digunakan untuk senjata otonom sepenuhnya atau pengawasan massal domestik terhadap warga AS, sementara DoD ingin menghindari batasan tersebut.
Namun, ini bukan hanya perselisihan komersial sempit, melainkan sengketa perlindungan AI yang berprofil tinggi dengan implikasi langsung terhadap otomatisasi medan perang di masa depan. Pentagon menegaskan perlunya kebebasan hukum maksimal, sedangkan Anthropic berpendapat bahwa sistem saat ini belum dapat dipercaya untuk pengambilan keputusan hidup dan mati secara massal.
Dalam pernyataan rinci, CEO Dario Amodei memperingatkan bahwa dalam “kasus tertentu yang sempit,” kecerdasan buatan dapat “merusak, bukan melindungi, nilai-nilai demokratis.” Ia menekankan bahwa beberapa aplikasi “sangat di luar batas apa yang dapat dilakukan teknologi saat ini secara aman dan andal,” menyoroti risiko penyalahgunaan selama operasi militer yang kompleks.
Mengenai kekhawatiran pengawasan, Amodei berpendapat bahwa sistem yang kuat kini memungkinkan untuk “mengumpulkan data yang tersebar dan secara individual tidak berbahaya menjadi gambaran lengkap tentang kehidupan seseorang, secara otomatis dan dalam skala besar.” Selain itu, ia memperingatkan bahwa kemampuan tersebut, jika diarahkan ke dalam, dapat secara fundamental mengubah hubungan antara warga negara dan negara.
Amodei menegaskan kembali bahwa Anthropic mendukung penggunaan AI untuk pengumpulan intelijen asing yang sah. Namun, ia menambahkan bahwa “menggunakan sistem ini untuk pengawasan domestik massal tidak sejalan dengan nilai-nilai demokratis,” membatasi secara etis antara intelijen luar negeri dan pemantauan internal terhadap warga AS.
Ancaman, tenggat waktu, dan tekanan hukum
Perlombaan kekuasaan ini semakin memanas selama pertemuan di Pentagon pada hari Selasa antara Amodei dan Menteri Pertahanan Pete Hegseth. Hegseth mengancam akan menandai Anthropic sebagai “risiko rantai pasokan” atau menggunakan Defense Production Act untuk memaksa kepatuhan. Pada Rabu malam, DoD menyampaikan apa yang disebutnya “penawaran terakhir dan final,” memberi perusahaan waktu hingga pukul 17:01 ET hari Jumat untuk merespons.
Juru bicara Anthropic mengakui menerima bahasa kontrak yang direvisi pada hari Rabu, tetapi mengatakan bahwa itu “nyaris tidak ada kemajuan.” Menurutnya, kata-kata baru yang dirancang sebagai kompromi dipasangkan dengan frasa hukum yang secara efektif memungkinkan perlindungan penting untuk “diabaikan sesuka hati,” melemahkan perlindungan yang dinyatakan.
Menanggapi tekanan yang meningkat, Amodei mengatakan: “Departemen Perang menyatakan mereka hanya akan bekerja sama dengan perusahaan AI yang setuju dengan ‘setiap penggunaan yang sah’ dan menghapus perlindungan dalam kasus yang disebutkan di atas.” Ia menambahkan bahwa pejabat telah mengancam akan memutus hubungan Anthropic dari sistem mereka dan menandai perusahaan sebagai “risiko rantai pasokan” jika menolak; namun, ia bersikeras, “kami tidak dapat dengan hati nurani yang baik menyetujui permintaan mereka.”
Bagi Pentagon, isu ini dipandang berbeda. Juru bicara utama Sean Parnell mengatakan pada hari Kamis bahwa DoD “tidak tertarik” menggunakan sistem Anthropic untuk senjata otonom sepenuhnya atau melakukan pengawasan massal terhadap warga AS, menegaskan bahwa praktik tersebut akan ilegal. Sebaliknya, ia berpendapat bahwa departemen hanya ingin perusahaan mengizinkan penggunaan teknologi mereka untuk “semua tujuan yang sah,” menggambarkan hal itu sebagai “permintaan yang sederhana dan masuk akal.”
Serangan pribadi dan dukungan publik
Perselisihan ini juga menjadi persoalan pribadi di tingkat senior. Pada Kamis malam, Wakil Menteri Pertahanan AS Emil Michael menyerang Amodei di X, mengklaim bahwa eksekutif tersebut “tidak ingin apa pun selain mengendalikan militer AS secara pribadi.” Michael bahkan menulis, “Sungguh disayangkan bahwa Dario Amodei adalah seorang pembohong dan memiliki kompleks Tuhan.”
Namun, Anthropic mendapatkan dukungan signifikan dari bagian sektor teknologi. Dalam surat terbuka, lebih dari 200 pekerja dari Google dan OpenAI secara terbuka mendukung posisi perusahaan tersebut. Selain itu, seorang mantan pejabat DoD mengatakan kepada BBC bahwa justifikasi Hegseth untuk menggunakan label “risiko rantai pasokan” tampak “sangat lemah,” menimbulkan pertanyaan tentang kekuatan kasus Pentagon.
Konfrontasi ini juga menjadi titik tolak dalam debat yang lebih luas tentang etika AI dan kebijakan militer. Para peneliti AI dan advokat kebebasan sipil memantau dengan seksama, melihat kasus ini sebagai ujian awal tentang seberapa jauh lembaga pertahanan dapat mendorong laboratorium swasta untuk melonggarkan pembatasan bawaan pada sistem canggih.
Taruhannya secara strategis untuk AI pertahanan AS
Meskipun retorika semakin memanas, Amodei menegaskan bahwa dia “sangat memahami pentingnya penggunaan AI untuk membela Amerika Serikat.” Ia memandang isu ini sebagai soal penempatan yang bertanggung jawab, bukan penolakan terhadap pertahanan nasional, berargumen bahwa kredibilitas jangka panjang kemampuan AI AS bergantung pada penegakan norma demokratis.
Seorang perwakilan Anthropic mengatakan organisasi ini tetap “siap melanjutkan pembicaraan dan berkomitmen terhadap keberlanjutan operasional untuk Departemen dan prajurit Amerika.” Namun, dengan tenggat waktu Pentagon yang semakin dekat dan ancaman penetapan sebagai “risiko rantai pasokan” yang masih ada di meja, kedua belah pihak menghadapi tekanan untuk menyelesaikan ketegangan ini tanpa mengganggu inovasi penting.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Konfrontasi Pentagon mengancam perlindungan AI antropik dan kontrak pertahanan $200 juta
Ketegangan yang meningkat antara laboratorium kecerdasan buatan terkemuka dan lembaga pertahanan AS telah berkembang menjadi bentrokan berisiko tinggi mengenai AI antropik dan penggunaan di medan perang.
Anthropic tetap teguh menentang tekanan Pentagon
Anthropic menolak tuntutan Departemen Pertahanan AS untuk menghapus batasan keselamatan AI utama dari sistemnya, meskipun kontraknya yang bernilai 200 juta dolar kini terancam. Perusahaan ini telah menyatakan bahwa mereka tidak akan mundur dalam sengketa dengan DoD mengenai bagaimana model canggih mereka dapat digunakan di jaringan militer.
Saingan startup ini, OpenAI, Google, dan xAI, mendapatkan penghargaan serupa dari DoD hingga 200 juta dolar pada 2023. Namun, perusahaan-perusahaan tersebut setuju membiarkan Pentagon menggunakan sistem mereka untuk semua misi yang sah di lingkungan militer yang tidak diklasifikasi, memberikan fleksibilitas operasional yang lebih luas kepada pemerintah.
Sebaliknya, Anthropic menandatangani kontrak sendiri sebesar 200 juta dolar dengan DoD pada Juli dan menjadi laboratorium AI pertama yang menyematkan modelnya langsung ke dalam alur kerja misi di jaringan rahasia. Selain itu, alat mereka diintegrasikan ke dalam operasi pertahanan yang sensitif, menempatkan perusahaan ini di pusat pembangunan AI keamanan nasional AS.
Negosiasi dengan pejabat Pentagon menjadi semakin tegang dalam beberapa minggu terakhir. Seorang yang akrab dengan pembicaraan mengatakan bahwa ketegangan ini “berasal dari beberapa bulan lalu,” jauh sebelum diketahui secara publik bahwa Claude digunakan dalam operasi AS yang terkait dengan penyitaan Presiden Venezuela Nicolás Maduro.
Perselisihan tentang pengawasan dan senjata otonom
Inti dari konflik ini adalah sejauh mana otoritas militer dapat mendorong model AI yang kuat menuju pengawasan dan otonomi. Anthropic mencari jaminan mengikat bahwa teknologinya tidak akan digunakan untuk senjata otonom sepenuhnya atau pengawasan massal domestik terhadap warga AS, sementara DoD ingin menghindari batasan tersebut.
Namun, ini bukan hanya perselisihan komersial sempit, melainkan sengketa perlindungan AI yang berprofil tinggi dengan implikasi langsung terhadap otomatisasi medan perang di masa depan. Pentagon menegaskan perlunya kebebasan hukum maksimal, sedangkan Anthropic berpendapat bahwa sistem saat ini belum dapat dipercaya untuk pengambilan keputusan hidup dan mati secara massal.
Dalam pernyataan rinci, CEO Dario Amodei memperingatkan bahwa dalam “kasus tertentu yang sempit,” kecerdasan buatan dapat “merusak, bukan melindungi, nilai-nilai demokratis.” Ia menekankan bahwa beberapa aplikasi “sangat di luar batas apa yang dapat dilakukan teknologi saat ini secara aman dan andal,” menyoroti risiko penyalahgunaan selama operasi militer yang kompleks.
Mengenai kekhawatiran pengawasan, Amodei berpendapat bahwa sistem yang kuat kini memungkinkan untuk “mengumpulkan data yang tersebar dan secara individual tidak berbahaya menjadi gambaran lengkap tentang kehidupan seseorang, secara otomatis dan dalam skala besar.” Selain itu, ia memperingatkan bahwa kemampuan tersebut, jika diarahkan ke dalam, dapat secara fundamental mengubah hubungan antara warga negara dan negara.
Amodei menegaskan kembali bahwa Anthropic mendukung penggunaan AI untuk pengumpulan intelijen asing yang sah. Namun, ia menambahkan bahwa “menggunakan sistem ini untuk pengawasan domestik massal tidak sejalan dengan nilai-nilai demokratis,” membatasi secara etis antara intelijen luar negeri dan pemantauan internal terhadap warga AS.
Ancaman, tenggat waktu, dan tekanan hukum
Perlombaan kekuasaan ini semakin memanas selama pertemuan di Pentagon pada hari Selasa antara Amodei dan Menteri Pertahanan Pete Hegseth. Hegseth mengancam akan menandai Anthropic sebagai “risiko rantai pasokan” atau menggunakan Defense Production Act untuk memaksa kepatuhan. Pada Rabu malam, DoD menyampaikan apa yang disebutnya “penawaran terakhir dan final,” memberi perusahaan waktu hingga pukul 17:01 ET hari Jumat untuk merespons.
Juru bicara Anthropic mengakui menerima bahasa kontrak yang direvisi pada hari Rabu, tetapi mengatakan bahwa itu “nyaris tidak ada kemajuan.” Menurutnya, kata-kata baru yang dirancang sebagai kompromi dipasangkan dengan frasa hukum yang secara efektif memungkinkan perlindungan penting untuk “diabaikan sesuka hati,” melemahkan perlindungan yang dinyatakan.
Menanggapi tekanan yang meningkat, Amodei mengatakan: “Departemen Perang menyatakan mereka hanya akan bekerja sama dengan perusahaan AI yang setuju dengan ‘setiap penggunaan yang sah’ dan menghapus perlindungan dalam kasus yang disebutkan di atas.” Ia menambahkan bahwa pejabat telah mengancam akan memutus hubungan Anthropic dari sistem mereka dan menandai perusahaan sebagai “risiko rantai pasokan” jika menolak; namun, ia bersikeras, “kami tidak dapat dengan hati nurani yang baik menyetujui permintaan mereka.”
Bagi Pentagon, isu ini dipandang berbeda. Juru bicara utama Sean Parnell mengatakan pada hari Kamis bahwa DoD “tidak tertarik” menggunakan sistem Anthropic untuk senjata otonom sepenuhnya atau melakukan pengawasan massal terhadap warga AS, menegaskan bahwa praktik tersebut akan ilegal. Sebaliknya, ia berpendapat bahwa departemen hanya ingin perusahaan mengizinkan penggunaan teknologi mereka untuk “semua tujuan yang sah,” menggambarkan hal itu sebagai “permintaan yang sederhana dan masuk akal.”
Serangan pribadi dan dukungan publik
Perselisihan ini juga menjadi persoalan pribadi di tingkat senior. Pada Kamis malam, Wakil Menteri Pertahanan AS Emil Michael menyerang Amodei di X, mengklaim bahwa eksekutif tersebut “tidak ingin apa pun selain mengendalikan militer AS secara pribadi.” Michael bahkan menulis, “Sungguh disayangkan bahwa Dario Amodei adalah seorang pembohong dan memiliki kompleks Tuhan.”
Namun, Anthropic mendapatkan dukungan signifikan dari bagian sektor teknologi. Dalam surat terbuka, lebih dari 200 pekerja dari Google dan OpenAI secara terbuka mendukung posisi perusahaan tersebut. Selain itu, seorang mantan pejabat DoD mengatakan kepada BBC bahwa justifikasi Hegseth untuk menggunakan label “risiko rantai pasokan” tampak “sangat lemah,” menimbulkan pertanyaan tentang kekuatan kasus Pentagon.
Konfrontasi ini juga menjadi titik tolak dalam debat yang lebih luas tentang etika AI dan kebijakan militer. Para peneliti AI dan advokat kebebasan sipil memantau dengan seksama, melihat kasus ini sebagai ujian awal tentang seberapa jauh lembaga pertahanan dapat mendorong laboratorium swasta untuk melonggarkan pembatasan bawaan pada sistem canggih.
Taruhannya secara strategis untuk AI pertahanan AS
Meskipun retorika semakin memanas, Amodei menegaskan bahwa dia “sangat memahami pentingnya penggunaan AI untuk membela Amerika Serikat.” Ia memandang isu ini sebagai soal penempatan yang bertanggung jawab, bukan penolakan terhadap pertahanan nasional, berargumen bahwa kredibilitas jangka panjang kemampuan AI AS bergantung pada penegakan norma demokratis.
Seorang perwakilan Anthropic mengatakan organisasi ini tetap “siap melanjutkan pembicaraan dan berkomitmen terhadap keberlanjutan operasional untuk Departemen dan prajurit Amerika.” Namun, dengan tenggat waktu Pentagon yang semakin dekat dan ancaman penetapan sebagai “risiko rantai pasokan” yang masih ada di meja, kedua belah pihak menghadapi tekanan untuk menyelesaikan ketegangan ini tanpa mengganggu inovasi penting.