เสวนาเรื่องการปล่อยน้ำเสียนิวเคลียร์ลงทะเล! รัฐบาลญี่ปุ่นถูกแฉว่าใช้อาวุธ AI ตรวจสอบเครือข่ายทั้งหมดแบบเรียลไทม์เพื่อหา "ข้อมูลเท็จ"

ที่มา: Xinzhiyuan

แก้ไข: อีเนียสง่วงนอนมาก

[บทนำ] สื่อบางแห่งแจ้งข่าวว่าเมื่อต้นปีที่แล้ว รัฐบาลญี่ปุ่นเริ่มใช้เครื่องมือ AI เพื่อตรวจจับข้อสังเกตที่เกี่ยวข้องกับการปล่อยน้ำเสียนิวเคลียร์ฟูกูชิมะ และตอบสนองภายในไม่กี่ชั่วโมง

ในช่วงไม่กี่วันที่ผ่านมา ข่าวที่ว่าญี่ปุ่นได้เริ่มปล่อยน้ำที่มีการปนเปื้อนนิวเคลียร์อย่างเป็นทางการลงสู่มหาสมุทรแปซิฟิก ได้รับความสนใจอย่างกว้างขวาง

ก่อนการปลดประจำการ สื่อบางแห่งรายงานว่ารัฐบาลญี่ปุ่นใช้เครื่องมือ AI ตั้งแต่ปีที่แล้วเพื่อติดตามข้อสังเกตใด ๆ ที่เกี่ยวข้องกับแผนการของโรงไฟฟ้านิวเคลียร์ฟุกุชิมะในการปล่อยน้ำเสียนิวเคลียร์

ในเดือนมิถุนายนของปีนี้ AI พบรายงานของสื่อเกาหลีใต้ที่อ้างว่าเจ้าหน้าที่อาวุโสของกระทรวงการต่างประเทศญี่ปุ่นได้บริจาคเงินจำนวนมากทางการเมืองให้กับสำนักงานพลังงานปรมาณูระหว่างประเทศ (IAEA)

ภายในไม่กี่ชั่วโมง รัฐบาลญี่ปุ่นตอบโต้ โดยเพิกเฉยต่อรายงานดังกล่าวว่า "ไม่มีเหตุผล" ทั้งภาษาอังกฤษและภาษาญี่ปุ่น

ตามรายงานก่อนหน้าของ Nikkei Asia กระทรวงการต่างประเทศญี่ปุ่นจะเปิดตัวระบบ AI ใหม่ในปี 2566 เพื่อรวบรวมและวิเคราะห์ข้อมูลบนโซเชียลมีเดียและแพลตฟอร์มอื่น ๆ รวมถึงติดตามผลกระทบของความคิดเห็นของประชาชนในระยะกลางและระยะยาว ภาคเรียน.

เป็นที่น่าสังเกตว่ากรอบการทำงานนี้ไม่เพียงแต่รวมถึงข้อมูลที่มีไว้สำหรับผู้ชมชาวญี่ปุ่นเท่านั้น แต่ยังรวมไปถึงข้อมูลที่มีไว้สำหรับญี่ปุ่นในประเทศและภูมิภาคอื่นๆ ด้วย

รีวิวกิจกรรม

ในเดือนมีนาคม พ.ศ. 2554 แผ่นดินไหวและสึนามิทำให้ระบบทำความเย็นที่โรงไฟฟ้านิวเคลียร์ฟุกุชิมะไดอิจิพัง ส่งผลให้เชื้อเพลิงนิวเคลียร์ในเครื่องปฏิกรณ์สามเครื่องละลายและรั่วไหลของสารกัมมันตภาพรังสี มลพิษมหาศาลที่ตามมาทำให้ผู้คนนับหมื่นต้องอพยพ

นับตั้งแต่นั้นเป็นต้นมา น้ำทะเลมากกว่า 1.3 ล้านลูกบาศก์เมตรได้ถูกนำมาใช้เพื่อทำให้แกนเครื่องปฏิกรณ์เย็นลง ซึ่งเกิดความร้อนสูงเกินไปหลังการระเบิด

น้ำที่ปนเปื้อนนี้จะถูกรวบรวมและเก็บไว้ในถังสแตนเลสมากกว่า 1,000 ถังบนเว็บไซต์

ในบรรดาธาตุกัมมันตรังสี 64 ธาตุที่ก่อให้เกิดมลพิษ ธาตุกัมมันตภาพรังสีที่ก่อให้เกิดภัยคุกคามต่อสุขภาพของมนุษย์ส่วนใหญ่ ได้แก่ คาร์บอน-14 ไอโอดีน-131 ซีเซียม-137 สตรอนเซียม-90 โคบอลต์-60 และทริเทียม-3

เพื่อบำบัดน้ำเสียนิวเคลียร์เหล่านี้ บริษัท Tokyo Electric Power Company (TEPCO) ได้นำระบบบำบัดของเหลวขั้นสูง (ALPS) ที่พัฒนาขึ้นเองมาใช้ โดยกระบวนการนี้แบ่งออกเป็นห้าขั้นตอนของการตกตะกอนร่วม การดูดซับ และการกรองทางกายภาพ

อย่างไรก็ตาม ปริมาณน้ำปริมาณมากดังกล่าวยังทำให้การจัดเก็บแบบยั่งยืนทำได้ยากขึ้นอีกด้วย

ในเดือนเมษายน พ.ศ. 2564 รัฐบาลญี่ปุ่นอนุมัติอย่างเป็นทางการในการปล่อยสิ่งปฏิกูลนิวเคลียร์ที่ผ่านการบำบัดเหล่านี้ลงสู่ทะเล

แม้จะมีข้อกังวลจากหลายประเทศและองค์กรระหว่างประเทศ แต่สิ่งนี้ก็ไม่ได้หยุดญี่ปุ่นจากการก้าวหน้าแผนดังกล่าว

ในเวลาเดียวกัน กระทรวงการต่างประเทศของญี่ปุ่นยังได้เริ่มใช้ AI เพื่อติดตามรายงานออนไลน์เกี่ยวกับสารกัมมันตภาพรังสีที่มีอยู่ในน้ำเสียนิวเคลียร์ และลดความเข้มข้นของข้อมูลดังกล่าวด้วยการผลิตสื่อส่งเสริมการขายจำนวนมาก

เมื่อวันที่ 21 กรกฎาคม กระทรวงการต่างประเทศญี่ปุ่นเผยแพร่วิดีโอแอนิเมชั่นบน Twitter อธิบายการป้องกันความปลอดภัยในกระบวนการบำบัดน้ำเสียนิวเคลียร์ในภาษาญี่ปุ่น อังกฤษ ฝรั่งเศส สเปน รัสเซีย อาหรับ จีน และเกาหลี

วิดีโอจะอธิบายวิธีการทำให้น้ำในโรงงานบริสุทธิ์ตามมาตรฐานข้อบังคับผ่านระบบบำบัดของเหลวขั้นสูง (ALPS) และเน้นย้ำว่าก่อนที่จะถูกปล่อยออกสู่พื้นที่มหาสมุทรที่กว้างขึ้น สิ่งปฏิกูลนิวเคลียร์ที่ปล่อยออกมาจะถูกน้ำทะเลเจือจางถึง 100 เท่า

คำพูดของจอภาพ AI

ในความเป็นจริง เทคโนโลยีการติดตามความคิดเห็นสาธารณะทางอินเทอร์เน็ตนี้ได้รับการสำรวจอย่างลึกซึ้งและกว้างขวางในสาขา AI

หนึ่งในความนิยมมากที่สุดคือการใช้อัลกอริธึม โมเดลการเรียนรู้ของเครื่องจักร และมนุษย์ร่วมกันเพื่อจัดการกับ "ข่าวปลอม" ที่เผยแพร่ในโซเชียลมีเดีย

การศึกษาบน Twitter ในปี 2018 แสดงให้เห็นว่าเรื่องราวข่าวปลอมมีแนวโน้มที่จะถูกรีทวีตโดยมนุษย์มากกว่าข่าวจริงถึง 70%

ในขณะเดียวกัน ข่าวจริงจะใช้เวลานานกว่าประมาณ 6 เท่าในการเข้าถึงกลุ่มคน 1,500 คน และโดยส่วนใหญ่แล้วเข้าถึงกลุ่มคนไม่เกิน 1,000 คนไม่ได้ ในทางตรงกันข้าม ข่าวปลอมยอดนิยมสามารถเข้าถึงผู้คนได้มากถึง 100,000 คน

ด้วยเหตุนี้ Meta จึงได้เปิดตัวเครื่องมือ AI ใหม่ล่าสุดในปี 2022 เพื่อรับรองความถูกต้องของข้อมูล

Sphere เป็นโมเดล AI แรกที่สามารถสแกนการอ้างอิงหลายแสนรายการในคราวเดียว เพื่อตรวจสอบว่าพวกเขาสนับสนุนการกล่าวอ้างที่เกี่ยวข้องหรือไม่

ชุดข้อมูลของ Sphere ประกอบด้วยหน้าเว็บสาธารณะ 134 ล้านหน้า ต้องอาศัยความรู้โดยรวมของอินเทอร์เน็ตในการสแกนการอ้างอิงเว็บนับแสนรายการอย่างรวดเร็วเพื่อหาข้อผิดพลาดที่เป็นข้อเท็จจริง

Meta กล่าวว่า Sphere ได้สแกนทุกหน้าใน Wikipedia เพื่อดูว่าสามารถระบุแหล่งที่มาของการอ้างอิงที่ไม่สนับสนุนการอ้างสิทธิ์ที่ทำในหน้านั้นได้หรือไม่

เมื่อ Sphere พบแหล่งที่มาที่น่าสงสัย ทรงกลมสามารถแนะนำแหล่งที่มาที่แข็งแกร่งกว่าหรือการแก้ไขเพื่อช่วยปรับปรุงความแม่นยำของรายการได้

ก่อนหน้านี้ ระบบ AI จำนวนมากสามารถระบุข้อมูลที่ขาดแหล่งอ้างอิงได้ แต่นักวิจัยของ Meta กล่าวว่าการเลือกข้อกล่าวอ้างที่น่าสงสัย และการพิจารณาว่าแหล่งอ้างอิงสนับสนุนการกล่าวอ้างดังกล่าวจริงหรือไม่นั้น จำเป็นต้องมี "ความเข้าใจอย่างลึกซึ้งและการวิเคราะห์ระบบ AI"

การพัฒนา Sphere ถือเป็นความพยายามของ Meta ในการจัดการกับข้อมูลที่ไม่ถูกต้องบนแพลตฟอร์ม

Meta เผชิญกับคำวิพากษ์วิจารณ์อย่างรุนแรงจากผู้ใช้และหน่วยงานกำกับดูแลเป็นเวลาหลายปีสำหรับข้อมูลที่ผิดที่แพร่กระจายบน Facebook, Instagram และ WhatsApp CEO Xiao Zha ถูกเรียกตัวต่อหน้าสภาคองเกรสเพื่อหารือเกี่ยวกับปัญหานี้ด้วยซ้ำ

ค้นพบข่าวปลอมและสำรวจรูปแบบการสื่อสารบนโซเชียลมีเดีย

ในยุโรป ยังมีโครงการ Fandango ซึ่งกำลังสร้างเครื่องมือซอฟต์แวร์เพื่อช่วยนักข่าวและผู้ตรวจสอบข้อเท็จจริงในการตรวจจับข่าวปลอม

ไม่ว่าจะเป็น PS หรือ DeepFake ระบบของ Fandango สามารถย้อนรอยการเปลี่ยนแปลงได้ โดยใช้อัลกอริธึมเพื่อช่วยให้นักข่าวตรวจพบเนื้อหาที่ได้รับการปรับแต่ง

นอกจากนี้ ระบบจะค้นหาหน้าเว็บหรือโพสต์บนโซเชียลมีเดียที่มีคำและความคิดเห็นคล้ายคลึงกัน โดยอิงจากข่าวปลอมที่ผู้ตรวจสอบข้อเท็จจริงทำเครื่องหมายไว้

เบื้องหลังระบบนี้คือการสนับสนุนอัลกอริธึม AI ต่างๆ โดยเฉพาะการประมวลผลภาษาธรรมชาติ

Bronstein ศาสตราจารย์แห่งมหาวิทยาลัยลูกาโนในสวิตเซอร์แลนด์และอิมพีเรียลคอลเลจลอนดอนในสหราชอาณาจักร ใช้แนวทาง AI ที่ผิดปกติในการตรวจจับข่าวปลอม

โครงการนี้เรียกว่า GoodNews ยกระดับเครื่องมือตรวจจับข่าวปลอมแบบเดิมด้วย AI

ในอดีต เครื่องมือเหล่านี้ได้วิเคราะห์ลักษณะทางความหมายที่เป็นเอกลักษณ์ของข่าวปลอม แต่มักพบอุปสรรค เช่น WhatsApp ที่ถูกเข้ารหัสและไม่อนุญาตให้เข้าถึง

นอกจากนี้ หลายครั้งที่ข่าวลวงอาจเป็นรูปภาพ ซึ่งยากต่อการวิเคราะห์โดยใช้เทคนิคการประมวลผลภาษาธรรมชาติ

ทีมของศาสตราจารย์บรอนสไตน์จึงหันมาใช้แบบจำลองแบบดั้งเดิมเพื่อศึกษาว่าข่าวปลอมแพร่กระจายไปอย่างไร

ผลการวิจัยพบว่าข่าวปลอมสามารถได้รับการแชร์มากกว่าการกดไลค์บน Facebook ในขณะที่โพสต์ปกติมีแนวโน้มที่จะได้รับไลค์มากกว่าการแชร์ เมื่อพบรูปแบบดังกล่าว GoodNews จะแนบคะแนนความน่าเชื่อถือกับรายการข่าว

โมเดลแรกของทีมที่ใช้การเรียนรู้ของเครื่องบนกราฟ ได้รับการฝึกอบรมเกี่ยวกับข้อมูลจาก Twitter ซึ่งบางส่วนได้รับการพิสูจน์แล้วว่าเป็นเท็จโดยนักข่าว

จากนี้พวกเขาได้ฝึกฝนอัลกอริธึม AI โดยสอนแบบจำลองว่าเรื่องราวใดเป็นเท็จและสิ่งใดไม่เป็นเท็จ

### การตรวจจับ DeepFake หลายรูปแบบ ดังนั้น AIGC จึงไม่มีที่จะซ่อน

นอกเหนือจากข้อความล้วนแล้ว การพัฒนาอย่างรวดเร็วของโมเดลการสร้างภาพ เช่น Stable Diffusion ยังทำให้ปัญหา DeepFake รุนแรงมากขึ้นเรื่อยๆ

ในการปลอมแปลงสื่อหลายรูปแบบ ใบหน้าของบุคคลสำคัญในภาพรายงานข่าวต่างๆ (ใบหน้าของประธานาธิบดีฝรั่งเศสในภาพด้านล่าง) จะถูกแทนที่ และวลีสำคัญหรือคำในข้อความถูกปลอมแปลงด้วย (วลีเชิงบวก "ยินดีต้อนรับสู่ ” เปลี่ยนเป็นวลีปฏิเสธ “ถูกบังคับให้ลาออก”)

เพื่อตอบสนองความท้าทายใหม่ๆ นักวิจัยได้เสนอแบบจำลองการอนุมานการปลอมแปลงลำดับชั้นแบบหลายรูปแบบ ซึ่งสามารถตรวจจับความไม่สอดคล้องกันของความหมายแบบครอสโมดัลของกลุ่มตัวอย่างที่ถูกดัดแปลงโดยการหลอมรวมและการอนุมานคุณลักษณะเชิงความหมายระหว่างรังสีต่างๆ

ปัจจุบันงานนี้ได้รับการยอมรับจาก CVPR 2023 แล้ว

โดยเฉพาะอย่างยิ่ง ผู้เขียนเสนอแบบจำลองการให้เหตุผลการงัดแงะหลายรูปแบบตามลำดับชั้น HierArchical Multi-modal Manipulation rEasoning tRansformer (HAMMER)

แบบจำลองนี้มีพื้นฐานอยู่บนสถาปัตยกรรมแบบจำลองของการหลอมรวมความหมายและการให้เหตุผลหลายรูปแบบตามโครงสร้างหอคอยคู่ และตระหนักถึงการตรวจจับและตำแหน่งของการปลอมแปลงหลายรูปแบบในลักษณะที่ละเอียดและเป็นลำดับชั้นผ่านการให้เหตุผลในการปลอมแปลงแบบตื้นและลึก

โมเดล HAMMER มีคุณสมบัติสองประการดังต่อไปนี้:

  1. ในการใช้เหตุผลในการปลอมแปลงแบบตื้น การเรียนรู้เชิงเปรียบเทียบแบบ Manipulation-Aware Contrastive Learning ใช้เพื่อจัดตำแหน่งคุณลักษณะเชิงความหมายของภาพและข้อความแบบ Unimodality ที่แยกออกมาโดยตัวเข้ารหัสรูปภาพและตัวเข้ารหัสข้อความ ในเวลาเดียวกัน คุณลักษณะการฝัง modal เดียวจะใช้สำหรับการโต้ตอบข้อมูลผ่านกลไกการสนใจข้าม และกลไก Local Patch Attentional Aggregation (Local Patch Attentional Aggregation) ได้รับการออกแบบมาเพื่อค้นหาพื้นที่การดัดแปลงรูปภาพ

  2. ในการให้เหตุผลเชิงลึกเกี่ยวกับการงัดแงะ คุณลักษณะเชิงความหมายแบบหลายรูปแบบจะถูกหลอมรวมกันเพิ่มเติมโดยใช้กลไกการสนใจข้ามแบบรับรู้แบบ modality ในตัวรวบรวมแบบหลายรูปแบบ บนพื้นฐานนี้ การติดแท็กลำดับหลายโมดัลพิเศษและการจัดหมวดหมู่หลายป้ายกำกับหลายโมดัล จะดำเนินการเพื่อค้นหาคำที่แก้ไขข้อความและตรวจจับประเภทการปลอมแปลงที่มีรายละเอียดปลีกย่อยยิ่งขึ้น

ผลการทดลองแสดงให้เห็นว่า HAMMER ที่นำเสนอโดยทีมวิจัยสามารถตรวจจับและค้นหาสื่อหลายรูปแบบที่มีการปลอมแปลงได้แม่นยำกว่าวิธีการตรวจจับหลายรูปแบบและแบบเดี่ยว

เมื่อพิจารณาจากผลลัพธ์การมองเห็นของการตรวจจับการงัดแงะหลายรูปแบบและการแปลเป็นภาษาท้องถิ่น HAMMER สามารถดำเนินการตรวจจับการงัดแงะและการแปลเป็นภาษาท้องถิ่นพร้อมกันได้อย่างแม่นยำ

นอกจากนี้ ผลลัพธ์การแสดงภาพความสนใจของแบบจำลองในคำที่ถูกแก้ไขยังแสดงให้เห็นอีกว่า HAMMER ดำเนินการตรวจจับการปลอมแปลงหลายรูปแบบและการแปลเป็นภาษาท้องถิ่น โดยมุ่งเน้นไปที่ขอบเขตของภาพที่ไม่สอดคล้องกับความหมายในเชิงความหมายกับข้อความที่ถูกดัดแปลง

อ้างอิง:

ดูต้นฉบับ
เนื้อหานี้มีสำหรับการอ้างอิงเท่านั้น ไม่ใช่การชักชวนหรือข้อเสนอ ไม่มีคำแนะนำด้านการลงทุน ภาษี หรือกฎหมาย ดูข้อจำกัดความรับผิดชอบสำหรับการเปิดเผยความเสี่ยงเพิ่มเติม
  • รางวัล
  • แสดงความคิดเห็น
  • แชร์
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น
  • ปักหมุด