การสร้างข่าวปลอมด้วย AI มีค่าใช้จ่ายเพียง 13 วอน ใช้เวลา 4 วินาที: การประชุมความมั่นคงของเกาหลี

CryptoFrontier

16 เมษายน 2026 โก อู-ยอง นักวิจัยอาวุโสของสถาบันเทคโนโลยีความมั่นคงแห่งชาติเกาหลีใต้ (NSTI) ได้นำเสนอข้อค้นพบในการประชุมสัมมนาด้านความมั่นคงเครือข่ายสารสนเทศและการสื่อสารครั้งที่ 32 (NetSec-KR 2026) ที่กรุงโซล โดยเปิดเผยว่าสามารถสร้างข่าวปลอมที่สร้างโดย AI ได้ด้วยต้นทุนและความเร็วที่ต่ำอย่างน่าทึ่ง จากการนำเสนอของโก การสร้างข่าวปลอมด้วย AI เชิงกำเนิดมีค่าเฉลี่ย 13 วอน และใช้เวลา 4 วินาที โดยข่าวปลอม 12 ชิ้นต้องใช้ 155 วอน และเฉลี่ย 46 วินาที โกย้ำว่าการแพร่กระจายของการบิดเบือนข้อมูลที่สร้างโดย AI และความคิดเห็นที่เป็นอันตรายซึ่งออกแบบมาเพื่อจัดการความเห็นของสาธารณชนได้กลายเป็นภัยคุกคามสำคัญต่อสังคม

การบิดเบือนข้อมูลที่สร้างโดย AI และผลกระทบทางสังคม

โกชี้ให้เห็นว่าเมื่อขีดความสามารถของ AI เชิงกำเนิดถูกนำไปใช้ในทางที่ผิดมากขึ้น กลยุทธ์การละเมิดหลักคือการจัดการความคิดเห็นและข้อมูล เขาเน้นว่าเมื่อค่าใช้จ่ายและปริมาณของข่าวปลอมและความคิดเห็นปลอมลดลงจนต่ำมากและมีจำนวนมากจนล้นสังคม สังคมก็มาถึงจุดที่การแยกแยะความจริงออกจากความเท็จทำได้ยากอย่างยิ่ง

จากการวิเคราะห์ของโก เมื่อข้อมูลปลอมกลายเป็นเรื่องที่พบได้ทั่วไป สมาชิกในสังคมจะเกิดความเหนื่อยล้าจากการบิดเบือนข้อมูลและเริ่มไม่สนใจความเป็นจริง ปรากฏการณ์นี้ทำให้ผู้คนตั้งคำถามแม้กับข้อมูลที่เป็นของจริง โกกล่าวว่า “การลงโทษสำหรับข่าวปลอมนั้นยากที่จะบังคับใช้ทางกฎหมาย เว้นแต่จะนำไปสู่ผลประโยชน์ทางการเงิน” และเน้นว่า “เทคโนโลยี AI เชิงกำเนิดกำลังก้าวหน้าอย่างรวดเร็วเกินไป และจำเป็นต้องมีการปรับปรุงในระดับสถาบัน”

โก อู-ยอง นำเสนอถึงความเสี่ยงของข่าวปลอมที่สร้างโดย AI ใน NetSec-KR 2026

การวิเคราะห์มัลแวร์และการตรวจจับด้วย AI

ชอย ซอก-อู นักผู้อำนวยการของ NSTI ได้นำเสนอ “เทคโนโลยีการวิเคราะห์มัลแวร์ด้วย AI” ในการประชุมช่วงเดียวกัน จากผลการค้นพบของชอย เมื่อ AI เริ่มถูกนำมาใช้เพื่อสร้างมัลแวร์ ประมาณ 450,000 ตัวอย่างมัลแวร์ใหม่จะถูกสร้างขึ้นทุกวัน ยอดสะสมของมัลแวร์ได้เกิน 1 พันล้านครั้งแล้ว

เพื่อตอบสนองต่อภัยคุกคามที่ทวีความรุนแรงขึ้น ชอยได้เสนอให้พัฒนาวิธีแก้ปัญหาที่ขับเคลื่อนด้วย AI รวมถึงระบบสนับสนุนการวิเคราะห์ด้วย AI ตัวแทนการวิเคราะห์อัตโนมัติที่อิงโมเดลภาษาขนาดใหญ่ (LLM) และเครื่องมืออัตโนมัติสำหรับการถอดรหัสที่ทำให้เข้าใจยาก

ชอย ซอก-อู นำเสนอถึงความจำเป็นของเทคโนโลยีการวิเคราะห์มัลแวร์ด้วย AI

การตรวจจับช่องโหว่ที่อิง LLM: ข้อจำกัดในปัจจุบัน

จี ฮยอน-ซอก นักวิจัยอาวุโสของ NSTI ได้นำเสนอ “ยุคของการตรวจจับช่องโหว่ด้านความปลอดภัยของซอฟต์แวร์ด้วย LLM” งานวิจัยของจีศึกษาวิธีที่ LLM ตรวจพบช่องโหว่ด้านความปลอดภัย และพบข้อจำกัดที่สำคัญในขีดความสามารถปัจจุบัน

จีระบุว่า: “ในกรณีล่าสุด แม้ว่า AI จะพบช่องโหว่จำนวนมาก แต่ผลการวิเคราะห์บ่งชี้ว่าไม่ได้เป็นเช่นนั้นจริง การตรวจจับช่องโหว่ที่มีประสิทธิผลจึงทำได้ก็ต่อเมื่อมีการให้เครื่องมือเฉพาะสำหรับการตรวจจับช่องโหว่แก่โมเดล LLM และ AI” จากการกล่าวของจี LLM ในปัจจุบันมีข้อจำกัดหลายประการ รวมถึงข้อจำกัดในการจัดการฐานโค้ดขนาดใหญ่ ปัญหาความขึ้นต่อข้อมูล และเหตุผลที่ไม่น่าเชื่อถือ

จีคาดการณ์ว่าเมื่อให้นักวิเคราะห์ความปลอดภัยที่มีทักษะซึ่งสามารถระบุช่องโหว่ได้โดยตรง นำไปใช้เครื่องมือ LLM ก็จะเพิ่มประสิทธิภาพสูงสุด อย่างไรก็ตาม จีเน้นว่า “การตรวจจับช่องโหว่ด้วย LLM ยังไม่สมบูรณ์ จำเป็นต้องสำรวจวิธีที่ดีกว่าสำหรับการค้นหาช่องโหว่” การนำเสนอชี้ให้เห็นว่าในขณะนี้ การตรวจจับช่องโหว่ที่อิง LLM ยังไม่สามารถทำได้อย่างมีประสิทธิผลด้วย AI เพียงอย่างเดียว และความเชี่ยวชาญของมนุษย์ยังคงมีความจำเป็นสำหรับการวิเคราะห์ความปลอดภัยที่เชื่อถือได้

จี ฮยอน-ซอก นำเสนอการวิจัยการตรวจจับช่องโหว่ที่อิง LLM

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น