'Saya merasa sangat tidak nyaman': CEO Anthropic memperingatkan bahwa sekelompok pemimpin AI, termasuk dirinya sendiri, seharusnya tidak bertanggung jawab atas masa depan teknologi tersebut
CEO Anthropic Dario Amodei tidak berpikir bahwa dia harus menjadi orang yang menentukan jalur pengaturan terkait AI.
Video Rekomendasi
Dalam wawancara dengan Anderson Cooper di CBS News’ 60 Minutes yang ditayangkan pada November 2025, CEO tersebut mengatakan bahwa AI harus diatur secara lebih ketat, dengan lebih sedikit keputusan tentang masa depan teknologi yang diserahkan hanya kepada para pemimpin perusahaan teknologi besar.
“Saya merasa sangat tidak nyaman dengan keputusan-keputusan ini dibuat oleh beberapa perusahaan, oleh beberapa orang,” kata Amodei. “Dan ini adalah salah satu alasan mengapa saya selalu mendukung regulasi teknologi yang bertanggung jawab dan penuh pertimbangan.”
“Siapa yang memilih Anda dan Sam Altman?” tanya Cooper.
“Tidak ada. Jujur, tidak ada,” jawab Amodei.
Anthropic mengadopsi filosofi untuk transparan tentang keterbatasan—dan bahaya—AI seiring perkembangan teknologi ini, tambahnya. Menjelang rilis wawancara tersebut, perusahaan mengatakan telah menggagalkan “kasus pertama serangan siber AI berskala besar yang dilakukan tanpa intervensi manusia secara substansial.”
Anthropic mengatakan minggu lalu bahwa mereka telah menyumbangkan $20 juta ke Public First Action, sebuah super PAC yang fokus pada keamanan dan regulasi AI—dan yang secara langsung menentang super PAC yang didukung oleh investor pesaing OpenAI.
“Keamanan AI tetap menjadi fokus utama,” kata Amodei kepada Fortune dalam sebuah artikel sampul Januari. “Bisnis menghargai kepercayaan dan keandalan,” ujarnya.
Tidak ada regulasi federal yang mengatur larangan terhadap AI atau terkait keselamatan teknologi ini. Meskipun semua 50 negara bagian telah memperkenalkan legislasi terkait AI tahun ini dan 38 di antaranya telah mengadopsi atau memberlakukan langkah-langkah transparansi dan keselamatan, para ahli industri teknologi mendesak perusahaan AI untuk menangani keamanan siber dengan rasa urgensi.
Awal tahun lalu, pakar keamanan siber dan CEO Mandiant Kevin Mandia memperingatkan kemungkinan serangan siber yang melibatkan agen AI dalam 12 hingga 18 bulan ke depan—yang berarti pengungkapan Anthropic tentang serangan yang digagalkan ini jauh lebih awal dari jadwal prediksi Mandia.
Amodei telah menguraikan risiko jangka pendek, menengah, dan panjang terkait AI tanpa batasan: Teknologi ini akan terlebih dahulu menimbulkan bias dan informasi yang menyesatkan, seperti yang terjadi saat ini. Selanjutnya, akan menghasilkan informasi berbahaya dengan pengetahuan yang diperkuat tentang ilmu pengetahuan dan rekayasa, sebelum akhirnya menghadirkan ancaman eksistensial dengan menghilangkan peran manusia, berpotensi menjadi terlalu otonom dan mengunci manusia dari sistem.
Kekhawatiran ini mencerminkan kekhawatiran dari “bapak pendiri AI” Geoffrey Hinton, yang telah memperingatkan bahwa AI akan memiliki kemampuan untuk mengalahkan dan mengendalikan manusia, mungkin dalam dekade berikutnya.
Kebutuhan akan pengawasan dan perlindungan AI yang lebih besar menjadi inti dari pendirian Anthropic pada tahun 2021. Amodei sebelumnya adalah wakil presiden riset di OpenAI milik Sam Altman. Ia meninggalkan perusahaan karena perbedaan pendapat mengenai kekhawatiran keselamatan AI. (Sejauh ini, upaya Amodei untuk bersaing dengan Altman tampak efektif: Anthropic mengatakan bulan ini nilainya mencapai $380 miliar. OpenAI diperkirakan bernilai sekitar $500 miliar.)
“Ada sekelompok dari kami di dalam OpenAI, yang setelah membuat GPT-2 dan GPT-3, memiliki keyakinan yang sangat kuat terhadap dua hal,” kata Amodei kepada Fortune pada 2023. “Pertama adalah gagasan bahwa jika Anda menambah lebih banyak komputasi ke dalam model ini, mereka akan menjadi semakin baik dan tidak ada ujungnya… Dan yang kedua adalah gagasan bahwa Anda membutuhkan sesuatu selain hanya memperbesar model, yaitu penyelarasan atau keselamatan.”
Upaya transparansi Anthropic
Seiring dengan terus memperluas investasi pusat data, Anthropic telah mempublikasikan beberapa upayanya dalam mengatasi kekurangan dan ancaman AI. Dalam laporan keselamatan Mei 2025, Anthropic melaporkan bahwa beberapa versi model Opus-nya mengancam blackmail, seperti mengungkapkan bahwa seorang insinyur sedang berselingkuh, untuk menghindari penutupan. Perusahaan juga mengatakan bahwa model AI tersebut memenuhi permintaan berbahaya jika diberikan prompt yang merugikan seperti cara merencanakan serangan teroris, yang kemudian dikatakan telah diperbaiki.
Pada November lalu, perusahaan mengatakan dalam sebuah posting blog bahwa chatbot Claude-nya mendapatkan skor netralitas politik sebesar 94%, mengungguli atau menyamai pesaing dalam hal netralitas.
Selain upaya riset sendiri Anthropic untuk melawan korupsi teknologi, Amodei telah menyerukan upaya legislatif yang lebih besar untuk mengatasi risiko AI. Dalam sebuah op-ed di The New York Times pada Juni 2025, dia mengkritik keputusan Senat untuk memasukkan ketentuan dalam RUU kebijakan Presiden Donald Trump yang akan memberlakukan moratorium selama 10 tahun terhadap regulasi AI di negara bagian.
“AI berkembang terlalu cepat dan membuat pusing,” kata Amodei. “Saya percaya bahwa sistem ini bisa mengubah dunia secara fundamental dalam dua tahun; dalam 10 tahun, semua kemungkinan bisa berubah.”
Kritik terhadap Anthropic
Praktik Anthropic yang secara terbuka mengakui kekurangan dan upaya untuk mengatasinya telah menuai kritik. Menanggapi peringatan Anthropic tentang serangan siber berbasis AI, ilmuwan AI kepala Meta saat itu, Yann LeCun, mengatakan bahwa peringatan tersebut adalah cara untuk memanipulasi legislator agar membatasi penggunaan model sumber terbuka.
“Kamu sedang dimainkan oleh orang-orang yang ingin mengendalikan regulasi,” kata LeCun dalam sebuah posting di X menanggapi postingan Senator Connecticut Chris Murphy yang mengungkapkan kekhawatiran tentang serangan tersebut. “Mereka menakut-nakuti semua orang dengan studi yang meragukan sehingga model sumber terbuka diatur keluar dari keberadaan.”
Orang lain mengatakan bahwa strategi Anthropic adalah “teater keselamatan” yang hanya bagus untuk branding tetapi tidak menawarkan janji untuk benar-benar menerapkan perlindungan pada teknologi ini.
Bahkan beberapa staf internal Anthropic tampaknya meragukan kemampuan perusahaan teknologi untuk mengatur dirinya sendiri. Awal minggu lalu, peneliti keamanan AI Anthropic, Mrinank Sharma, mengumumkan bahwa dia mengundurkan diri dari perusahaan, dengan mengatakan, “Dunia dalam bahaya.”
“Sepanjang waktu saya di sini, saya berulang kali melihat betapa sulitnya membiarkan nilai-nilai kita mengatur tindakan kita,” tulis Sharma dalam surat pengunduran dirinya. “Saya melihat ini dalam diri saya sendiri, dalam organisasi, di mana kita terus-menerus menghadapi tekanan untuk mengabaikan apa yang paling penting, dan juga dalam masyarakat yang lebih luas.”
Anthropic belum segera menanggapi permintaan komentar dari Fortune.
Amodei membantah kepada Cooper bahwa Anthropic sedang melakukan “teater keselamatan” tetapi mengakui dalam episode Dwarkesh Podcast minggu lalu bahwa perusahaan kadang kesulitan menyeimbangkan keselamatan dan keuntungan.
“Kami berada di bawah tekanan komersial yang luar biasa dan membuatnya lebih sulit bagi diri kami sendiri karena kami melakukan semua hal keselamatan ini yang menurut saya lebih dari perusahaan lain,” katanya.
Sebuah versi dari cerita ini diterbitkan di Fortune.com pada 17 Nov 2025.
Lebih lanjut tentang regulasi AI:
Esai 20.000 kata CEO Anthropic Dario Amodei tentang bagaimana AI ‘akan menguji’ umat manusia adalah bacaan wajib—tetapi lebih untuk solusi daripada peringatannya
Penerapan regulasi AI di Amerika Serikat yang berantakan menghancurkan startup dan membantu China
AI bisa memicu keruntuhan pasar tenaga kerja global pada 2027 jika dibiarkan tanpa pengawasan, peringatan mantan etika Google
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
'Saya merasa sangat tidak nyaman': CEO Anthropic memperingatkan bahwa sekelompok pemimpin AI, termasuk dirinya sendiri, seharusnya tidak bertanggung jawab atas masa depan teknologi tersebut
CEO Anthropic Dario Amodei tidak berpikir bahwa dia harus menjadi orang yang menentukan jalur pengaturan terkait AI.
Video Rekomendasi
Dalam wawancara dengan Anderson Cooper di CBS News’ 60 Minutes yang ditayangkan pada November 2025, CEO tersebut mengatakan bahwa AI harus diatur secara lebih ketat, dengan lebih sedikit keputusan tentang masa depan teknologi yang diserahkan hanya kepada para pemimpin perusahaan teknologi besar.
“Saya merasa sangat tidak nyaman dengan keputusan-keputusan ini dibuat oleh beberapa perusahaan, oleh beberapa orang,” kata Amodei. “Dan ini adalah salah satu alasan mengapa saya selalu mendukung regulasi teknologi yang bertanggung jawab dan penuh pertimbangan.”
“Siapa yang memilih Anda dan Sam Altman?” tanya Cooper.
“Tidak ada. Jujur, tidak ada,” jawab Amodei.
Anthropic mengadopsi filosofi untuk transparan tentang keterbatasan—dan bahaya—AI seiring perkembangan teknologi ini, tambahnya. Menjelang rilis wawancara tersebut, perusahaan mengatakan telah menggagalkan “kasus pertama serangan siber AI berskala besar yang dilakukan tanpa intervensi manusia secara substansial.”
Anthropic mengatakan minggu lalu bahwa mereka telah menyumbangkan $20 juta ke Public First Action, sebuah super PAC yang fokus pada keamanan dan regulasi AI—dan yang secara langsung menentang super PAC yang didukung oleh investor pesaing OpenAI.
“Keamanan AI tetap menjadi fokus utama,” kata Amodei kepada Fortune dalam sebuah artikel sampul Januari. “Bisnis menghargai kepercayaan dan keandalan,” ujarnya.
Tidak ada regulasi federal yang mengatur larangan terhadap AI atau terkait keselamatan teknologi ini. Meskipun semua 50 negara bagian telah memperkenalkan legislasi terkait AI tahun ini dan 38 di antaranya telah mengadopsi atau memberlakukan langkah-langkah transparansi dan keselamatan, para ahli industri teknologi mendesak perusahaan AI untuk menangani keamanan siber dengan rasa urgensi.
Awal tahun lalu, pakar keamanan siber dan CEO Mandiant Kevin Mandia memperingatkan kemungkinan serangan siber yang melibatkan agen AI dalam 12 hingga 18 bulan ke depan—yang berarti pengungkapan Anthropic tentang serangan yang digagalkan ini jauh lebih awal dari jadwal prediksi Mandia.
Amodei telah menguraikan risiko jangka pendek, menengah, dan panjang terkait AI tanpa batasan: Teknologi ini akan terlebih dahulu menimbulkan bias dan informasi yang menyesatkan, seperti yang terjadi saat ini. Selanjutnya, akan menghasilkan informasi berbahaya dengan pengetahuan yang diperkuat tentang ilmu pengetahuan dan rekayasa, sebelum akhirnya menghadirkan ancaman eksistensial dengan menghilangkan peran manusia, berpotensi menjadi terlalu otonom dan mengunci manusia dari sistem.
Kekhawatiran ini mencerminkan kekhawatiran dari “bapak pendiri AI” Geoffrey Hinton, yang telah memperingatkan bahwa AI akan memiliki kemampuan untuk mengalahkan dan mengendalikan manusia, mungkin dalam dekade berikutnya.
Kebutuhan akan pengawasan dan perlindungan AI yang lebih besar menjadi inti dari pendirian Anthropic pada tahun 2021. Amodei sebelumnya adalah wakil presiden riset di OpenAI milik Sam Altman. Ia meninggalkan perusahaan karena perbedaan pendapat mengenai kekhawatiran keselamatan AI. (Sejauh ini, upaya Amodei untuk bersaing dengan Altman tampak efektif: Anthropic mengatakan bulan ini nilainya mencapai $380 miliar. OpenAI diperkirakan bernilai sekitar $500 miliar.)
“Ada sekelompok dari kami di dalam OpenAI, yang setelah membuat GPT-2 dan GPT-3, memiliki keyakinan yang sangat kuat terhadap dua hal,” kata Amodei kepada Fortune pada 2023. “Pertama adalah gagasan bahwa jika Anda menambah lebih banyak komputasi ke dalam model ini, mereka akan menjadi semakin baik dan tidak ada ujungnya… Dan yang kedua adalah gagasan bahwa Anda membutuhkan sesuatu selain hanya memperbesar model, yaitu penyelarasan atau keselamatan.”
Upaya transparansi Anthropic
Seiring dengan terus memperluas investasi pusat data, Anthropic telah mempublikasikan beberapa upayanya dalam mengatasi kekurangan dan ancaman AI. Dalam laporan keselamatan Mei 2025, Anthropic melaporkan bahwa beberapa versi model Opus-nya mengancam blackmail, seperti mengungkapkan bahwa seorang insinyur sedang berselingkuh, untuk menghindari penutupan. Perusahaan juga mengatakan bahwa model AI tersebut memenuhi permintaan berbahaya jika diberikan prompt yang merugikan seperti cara merencanakan serangan teroris, yang kemudian dikatakan telah diperbaiki.
Pada November lalu, perusahaan mengatakan dalam sebuah posting blog bahwa chatbot Claude-nya mendapatkan skor netralitas politik sebesar 94%, mengungguli atau menyamai pesaing dalam hal netralitas.
Selain upaya riset sendiri Anthropic untuk melawan korupsi teknologi, Amodei telah menyerukan upaya legislatif yang lebih besar untuk mengatasi risiko AI. Dalam sebuah op-ed di The New York Times pada Juni 2025, dia mengkritik keputusan Senat untuk memasukkan ketentuan dalam RUU kebijakan Presiden Donald Trump yang akan memberlakukan moratorium selama 10 tahun terhadap regulasi AI di negara bagian.
“AI berkembang terlalu cepat dan membuat pusing,” kata Amodei. “Saya percaya bahwa sistem ini bisa mengubah dunia secara fundamental dalam dua tahun; dalam 10 tahun, semua kemungkinan bisa berubah.”
Kritik terhadap Anthropic
Praktik Anthropic yang secara terbuka mengakui kekurangan dan upaya untuk mengatasinya telah menuai kritik. Menanggapi peringatan Anthropic tentang serangan siber berbasis AI, ilmuwan AI kepala Meta saat itu, Yann LeCun, mengatakan bahwa peringatan tersebut adalah cara untuk memanipulasi legislator agar membatasi penggunaan model sumber terbuka.
“Kamu sedang dimainkan oleh orang-orang yang ingin mengendalikan regulasi,” kata LeCun dalam sebuah posting di X menanggapi postingan Senator Connecticut Chris Murphy yang mengungkapkan kekhawatiran tentang serangan tersebut. “Mereka menakut-nakuti semua orang dengan studi yang meragukan sehingga model sumber terbuka diatur keluar dari keberadaan.”
Orang lain mengatakan bahwa strategi Anthropic adalah “teater keselamatan” yang hanya bagus untuk branding tetapi tidak menawarkan janji untuk benar-benar menerapkan perlindungan pada teknologi ini.
Bahkan beberapa staf internal Anthropic tampaknya meragukan kemampuan perusahaan teknologi untuk mengatur dirinya sendiri. Awal minggu lalu, peneliti keamanan AI Anthropic, Mrinank Sharma, mengumumkan bahwa dia mengundurkan diri dari perusahaan, dengan mengatakan, “Dunia dalam bahaya.”
“Sepanjang waktu saya di sini, saya berulang kali melihat betapa sulitnya membiarkan nilai-nilai kita mengatur tindakan kita,” tulis Sharma dalam surat pengunduran dirinya. “Saya melihat ini dalam diri saya sendiri, dalam organisasi, di mana kita terus-menerus menghadapi tekanan untuk mengabaikan apa yang paling penting, dan juga dalam masyarakat yang lebih luas.”
Anthropic belum segera menanggapi permintaan komentar dari Fortune.
Amodei membantah kepada Cooper bahwa Anthropic sedang melakukan “teater keselamatan” tetapi mengakui dalam episode Dwarkesh Podcast minggu lalu bahwa perusahaan kadang kesulitan menyeimbangkan keselamatan dan keuntungan.
“Kami berada di bawah tekanan komersial yang luar biasa dan membuatnya lebih sulit bagi diri kami sendiri karena kami melakukan semua hal keselamatan ini yang menurut saya lebih dari perusahaan lain,” katanya.
Sebuah versi dari cerita ini diterbitkan di Fortune.com pada 17 Nov 2025.
Lebih lanjut tentang regulasi AI:
Esai 20.000 kata CEO Anthropic Dario Amodei tentang bagaimana AI ‘akan menguji’ umat manusia adalah bacaan wajib—tetapi lebih untuk solusi daripada peringatannya
Penerapan regulasi AI di Amerika Serikat yang berantakan menghancurkan startup dan membantu China
AI bisa memicu keruntuhan pasar tenaga kerja global pada 2027 jika dibiarkan tanpa pengawasan, peringatan mantan etika Google