Saat komunitas AI sedang heboh karena kontroversi keamanan model Anthropic Mythos, pemenang Penghargaan Turing dan ilmuwan AI utama di Meta, Yann LeCun, di X menuliskan pernyataan singkat: “Tidak akan ada siapa pun yang ‘bertanggung jawab’ atas kecerdasan super.” Cuitan ini mendapat 935 suka dan lebih dari 100 balasan, memberikan sudut pandang tata kelola yang sangat berbeda di tengah suasana kepanikan yang dipicu oleh Mythos.
Filsafat tata kelola di balik satu kalimat
Pernyataan LeCun tampaknya sederhana, namun sebenarnya mengarah langsung pada salah satu kesalahan berpikir mendasar dalam diskusi tata kelola AI: menyederhanakan risiko kecerdasan super menjadi persoalan “siapa yang mengontrol.” Ketika orang membahas keamanan AI, narasi yang umum adalah mencari “penanggung jawab”—sebuah perusahaan, sebuah lembaga pemerintah, atau seorang pemimpin teknologi untuk “mengendalikan” arah pengembangan AI. LeCun berpendapat bahwa premis ini sendiri justru keliru.
Sikap ini konsisten dengan filosofi AI terbuka yang selalu ia pegang: tata kelola AI harus bersifat terdesentralisasi, sistemik, dan melibatkan banyak pihak, bukan diserahkan pada satu entitas tunggal.
Pemikiran balik dalam kontroversi Mythos
Waktu pernyataan LeCun juga menarik untuk dicermati. Pada hari yang sama, Matt Shumer menyebut model Mythos Anthropic sebagai “senjata siber”, sementara Ethan Mollick mengekspresikan keterkejutannya dengan “Oh no.” Reaksi-reaksi ini menyiratkan logika bahwa AI yang begitu kuat harus dikendalikan secara ketat, idealnya dikelola oleh seorang “penjaga gerbang” yang bertanggung jawab.
Posisi LeCun justru sebaliknya—ia tidak menganggap “sebuah perusahaan memutuskan untuk tidak merilis” sebagai jaminan keamanan. Jika hanya segelintir perusahaan yang memiliki AI pada tingkat kecerdasan super, dan keputusan sepihak perusahaan-perusahaan itu dapat menentukan jalur perkembangan AI global, maka itu sendiri merupakan sebuah risiko. Kontrol yang terpusat tidak sama dengan keamanan; sebaliknya, ia mungkin menciptakan ketidakseimbangan kekuatan yang baru.
Tantangan tata kelola terdesentralisasi
Pendekatan LeCun juga menghadapi tantangan nyata. Tata kelola terdesentralisasi terdengar ideal, tetapi dalam kenyataan bahwa kemampuan AI berkembang secara eksponensial, “tidak ada yang bertanggung jawab” mungkin berarti “tidak ada yang bisa bertanggung jawab.” Ketika sebuah model dapat menemukan celah zero-day, apakah akses terbuka masih menjadi strategi terbaik?
Inilah kontradiksi inti dalam debat tata kelola AI saat ini: risiko penyalahgunaan kekuasaan ketika kontrol terpusat, dan risiko penyalahgunaan kemampuan ketika akses dibuka secara luas. Satu kalimat LeCun tidak menyelesaikan kontradiksi itu, tetapi memaksa orang untuk meninjau kembali apakah solusi intuitif—“menunjuk seseorang untuk bertanggung jawab”—benar-benar dapat diterapkan.
Implikasi bagi diskusi tata kelola AI
Di antara kepanikan yang dipicu oleh Mythos dan refleksi tenang LeCun, yang kita lihat adalah perbedaan mendasar dari dua aliran utama dalam tata kelola AI: kubu yang menekankan keamanan berpendapat untuk pembatasan kemampuan dan kontrol terpusat, sementara kubu yang pro-keterbukaan berpendapat untuk akses yang luas dan tata kelola yang terdesentralisasi. Debat ini tidak akan menghasilkan kesimpulan yang sederhana, tetapi bagi para pengambil keputusan di Taiwan yang memperhatikan kebijakan AI, memahami tarik-menarik antara dua ekstrem tersebut adalah pelajaran yang diperlukan untuk menyusun strategi tata kelola AI lokal.
Artikel ini LeCun menanggapi perdebatan tentang kecerdasan super dengan satu kalimat: tidak ada siapa pun yang dapat menguasai AI pertama kali muncul di ABMedia.