Pembahasan pembuangan limbah nuklir ke laut! Pemerintah Jepang diketahui menggunakan senjata AI untuk memantau seluruh jaringan secara real time untuk mencari "informasi palsu"

Sumber: Xinzhiyuan

EDIT: Aeneas sangat mengantuk

[Pendahuluan] Beberapa media memberitakan bahwa sejak tahun lalu, pemerintah Jepang mulai menggunakan alat AI untuk mendeteksi pernyataan terkait pembuangan limbah nuklir Fukushima, dan meresponsnya dalam beberapa jam.

Dalam beberapa hari terakhir, pemberitaan bahwa Jepang secara resmi mulai membuang air yang terkontaminasi nuklir ke Samudera Pasifik telah menarik perhatian luas.

Tepat sebelum pembuangan limbah nuklir, beberapa media melaporkan bahwa pemerintah Jepang telah menggunakan alat AI sejak tahun lalu untuk memantau pernyataan apa pun terkait dengan rencana pembangkit listrik tenaga nuklir Fukushima untuk membuang limbah nuklir.

Pada bulan Juni tahun ini, AI menemukan laporan media Korea Selatan yang mengklaim bahwa pejabat senior Kementerian Luar Negeri Jepang telah memberikan sumbangan politik dalam jumlah besar kepada Badan Energi Atom Internasional (IAEA).

Dalam beberapa jam, pemerintah Jepang menanggapinya dengan menganggap laporan tersebut "tidak berdasar" baik dalam bahasa Inggris maupun Jepang.

Menurut laporan Nikkei Asia sebelumnya, Kementerian Luar Negeri Jepang akan meluncurkan sistem AI baru pada tahun 2023 untuk mengumpulkan dan menganalisis informasi di media sosial dan platform lainnya, serta melacak dampak opini publik dalam jangka menengah dan panjang. ketentuan.

Perlu dicatat bahwa kerangka ini tidak hanya mencakup informasi yang ditujukan untuk audiens Jepang, namun juga informasi yang ditujukan untuk Jepang di negara dan wilayah lain.

Ulasan Acara

Pada bulan Maret 2011, gempa bumi dan tsunami merusak sistem pendingin di pembangkit listrik tenaga nuklir Fukushima Daiichi, menyebabkan bahan bakar nuklir di tiga reaktor meleleh dan mengeluarkan bahan radioaktif. Polusi besar yang terjadi memaksa puluhan ribu orang mengungsi.

Lebih dari 1,3 juta meter kubik air laut telah digunakan untuk mendinginkan inti reaktor, yang menjadi terlalu panas setelah ledakan.

Air yang terkontaminasi ini juga dikumpulkan dan disimpan di lebih dari 1.000 tangki baja tahan karat di lokasi tersebut.

Di antara 64 unsur radioaktif penyebab pencemaran, unsur radioaktif yang paling mengancam kesehatan manusia adalah: karbon-14, yodium-131, cesium-137, strontium-90, kobalt-60 dan tritium-3.

Untuk mengolah limbah nuklir ini, Tokyo Electric Power Company (TEPCO) mengadopsi sistem pengolahan cairan canggih (ALPS) yang dikembangkan sendiri, prosesnya dibagi menjadi lima tahap kopresipitasi, adsorpsi, dan filtrasi fisik.

Namun, jumlah air yang begitu besar juga membuat penyimpanan yang berkelanjutan semakin sulit dilakukan.

Pada bulan April 2021, pemerintah Jepang secara resmi menyetujui pembuangan limbah nuklir yang telah diolah ke laut.

Meskipun terdapat kekhawatiran yang diungkapkan oleh berbagai negara dan organisasi internasional, hal ini tidak menghentikan Jepang untuk memajukan rencana tersebut.

Pada saat yang sama, Kementerian Luar Negeri Jepang juga mulai menggunakan AI untuk memantau laporan online tentang zat radioaktif yang terkandung dalam limbah nuklir, dan untuk mengurangi konsentrasi informasi tersebut dengan memproduksi materi promosi dalam jumlah besar.

Pada tanggal 21 Juli, Kementerian Luar Negeri Jepang merilis video animasi di Twitter, menjelaskan perlindungan keselamatan dalam proses pengolahan limbah nuklir dalam bahasa Jepang, Inggris, Prancis, Spanyol, Rusia, Arab, Tiongkok, dan Korea.

Video tersebut menjelaskan bagaimana air pabrik dimurnikan sesuai standar peraturan melalui Advanced Liquid Treatment System (ALPS). Dan ditegaskan bahwa sebelum dibuang ke wilayah lautan yang lebih luas, limbah nuklir yang dibuang telah diencerkan 100 kali lipat oleh air laut.

AI memantau ucapan

Faktanya, teknologi pemantauan opini publik di Internet ini telah dieksplorasi secara mendalam dan ekstensif di bidang AI.

Salah satu yang paling populer adalah penggunaan kombinasi algoritma, model pembelajaran mesin, dan manusia untuk menangani “berita palsu” yang dipublikasikan di media sosial.

Sebuah studi Twitter pada tahun 2018 menunjukkan bahwa berita palsu 70% lebih mungkin di-retweet oleh manusia dibandingkan berita nyata.

Sementara itu, berita nyata membutuhkan waktu sekitar 6 kali lebih lama untuk menjangkau sekelompok 1.500 orang, dan seringkali jarang menjangkau lebih dari 1.000 orang. Sebaliknya, berita palsu yang populer bisa menjangkau hingga 100.000 orang.

Untuk mencapai tujuan ini, Meta telah meluncurkan alat AI baru, Sphere, pada tahun 2022 untuk memastikan keakuratan informasi.

Sphere adalah model AI pertama yang mampu memindai ratusan ribu kutipan sekaligus untuk memeriksa apakah kutipan tersebut mendukung klaim terkait.

Kumpulan data Sphere mencakup 134 juta halaman web publik. Hal ini bergantung pada pengetahuan kolektif internet untuk dengan cepat memindai ratusan ribu kutipan web untuk mencari kesalahan faktual.

Meta mengatakan Sphere telah memindai semua halaman di Wikipedia untuk melihat apakah ia dapat mengidentifikasi sumber kutipan yang tidak mendukung klaim yang dibuat di halaman tersebut.

Ketika Sphere menemukan sumber yang mencurigakan, Sphere dapat merekomendasikan sumber yang lebih kuat atau koreksi untuk membantu meningkatkan keakuratan entri.

Sebelumnya, banyak sistem AI mampu mengidentifikasi informasi yang tidak memiliki sumber kutipan, namun para peneliti di Meta mengatakan bahwa memilih klaim yang meragukan dan menentukan apakah sumber kutipan benar-benar mendukung klaim tersebut memerlukan "pemahaman dan analisis mendalam oleh sistem AI." .

Pengembangan Sphere menandai upaya Meta untuk mengatasi misinformasi di platform.

Meta telah menghadapi kritik keras dari pengguna dan regulator selama beberapa tahun karena penyebaran informasi yang salah di Facebook, Instagram, dan WhatsApp. CEO Xiao Zha bahkan dipanggil ke hadapan Kongres untuk membahas masalah ini.

Temukan berita palsu dan jelajahi pola komunikasi media sosial

Di Eropa, ada juga proyek Fandango, yang membuat perangkat lunak untuk membantu jurnalis dan pemeriksa fakta mendeteksi berita palsu.

Baik itu PS atau DeepFake, sistem Fandango dapat merekayasa balik perubahan tersebut, menggunakan algoritme untuk membantu jurnalis mengenali konten yang direkayasa.

Selain itu, sistem mencari halaman web atau postingan media sosial dengan kata-kata dan opini serupa berdasarkan berita palsu yang telah ditandai oleh pemeriksa fakta.

Di balik sistem ini terdapat dukungan berbagai algoritma AI, khususnya pemrosesan bahasa alami.

Bronstein, seorang profesor di Universitas Lugano di Swiss dan Imperial College London di Inggris, menggunakan pendekatan AI yang tidak lazim dalam mendeteksi berita palsu.

Proyek yang disebut GoodNews ini mengungguli alat pendeteksi berita palsu tradisional, AI.

Di masa lalu, alat-alat ini menganalisis karakteristik semantik unik dari berita palsu, namun sering kali menemui kendala, seperti WhatsApp yang terenkripsi dan tidak mengizinkan akses.

Selain itu, sering kali berita palsu berupa gambar, yang sulit dianalisis menggunakan teknik pemrosesan bahasa alami.

Jadi tim Profesor Bronstein mengubah model tradisional untuk mempelajari bagaimana berita palsu menyebar.

Hasilnya menunjukkan bahwa berita palsu bisa mendapatkan lebih banyak share dibandingkan like di Facebook, sementara postingan biasa cenderung mendapatkan lebih banyak like dibandingkan share. Dengan menemukan pola seperti itu, GoodNews memberikan skor kredibilitas pada berita.

Model pertama tim, yang menggunakan pembelajaran mesin berbasis grafik, dilatih berdasarkan data dari Twitter, beberapa di antaranya terbukti salah oleh jurnalis.

Dari sini, mereka melatih algoritma AI, mengajarkan model cerita mana yang salah dan mana yang tidak.

### Deteksi DeepFake multi-modal, sehingga AIGC tidak punya tempat untuk bersembunyi

Selain teks murni, pesatnya perkembangan model generasi visual seperti Stable Diffusion juga membuat masalah DeepFake semakin serius.

Dalam gangguan media multimodal, wajah orang-orang penting dalam gambar berbagai laporan berita (wajah presiden Perancis pada gambar di bawah) diganti, dan frasa atau kata kunci dalam teks diubah (frasa positif "dipersilakan untuk ” diubah menjadi kalimat negatif “dipaksa mengundurkan diri”).

Untuk menghadapi tantangan baru, para peneliti mengusulkan model inferensi gangguan hierarki multi-modal, yang dapat mendeteksi inkonsistensi semantik lintas-modal dari sampel yang dirusak dengan menggabungkan dan menyimpulkan fitur semantik antar modalitas.

Saat ini karya tersebut telah diterima oleh CVPR 2023.

Secara khusus, penulis mengusulkan model penalaran gangguan hierarki multimodal HierArchical Multi-modal Manipulation rEasoning tTransformer (HAMMER).

Model ini didasarkan pada arsitektur model fusi dan penalaran semantik multi-modal berdasarkan struktur menara ganda, dan mewujudkan deteksi dan lokasi gangguan multi-modal secara terperinci dan hierarkis melalui penalaran gangguan yang dangkal dan dalam.

Model HAMMER memiliki dua karakteristik berikut:

  1. Dalam penalaran tampering yang dangkal, Pembelajaran Kontrasif Sadar Manipulasi digunakan untuk menyelaraskan fitur semantik unimodalitas gambar dan teks yang diekstraksi oleh encoder gambar dan encoder teks. Pada saat yang sama, fitur penyematan modal tunggal digunakan untuk interaksi informasi melalui mekanisme perhatian silang, dan mekanisme Agregasi Perhatian Patch Lokal (Agregasi Perhatian Patch Lokal) dirancang untuk menemukan area gangguan gambar;

  2. Dalam penalaran gangguan mendalam, fitur semantik multimodal selanjutnya digabungkan menggunakan mekanisme perhatian silang sadar modalitas dalam agregator multimodal. Atas dasar ini, penandaan urutan multi-modal khusus dan klasifikasi multi-label multi-modal dilakukan untuk menemukan kata-kata yang merusak teks dan mendeteksi jenis gangguan yang lebih detail.

Hasil eksperimen menunjukkan bahwa HAMMER yang diusulkan oleh tim peneliti dapat mendeteksi dan menemukan gangguan media multimodal dengan lebih akurat dibandingkan metode deteksi multimodal dan modal tunggal.

Dilihat dari hasil visualisasi deteksi dan pelokalan tamper multi-modal, HAMMER dapat melakukan tugas deteksi dan pelokalan tamper secara akurat secara bersamaan.

Selain itu, hasil visualisasi perhatian model pada kata-kata yang dirusak lebih lanjut menunjukkan bahwa HAMMER melakukan deteksi dan lokalisasi gangguan multimodal dengan berfokus pada wilayah gambar yang secara semantik tidak konsisten dengan teks yang dirusak.

Referensi:

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate.io
Komunitas
Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)