วิกิพีเดียห้ามใช้ข้อความที่สร้างด้วย AI ในบทความภายใต้นโยบายการแก้ไขใหม่

Decrypt

สรุปโดยย่อ

  • วิกิพีเดียขณะนี้ห้ามผู้แก้ไขใช้โมเดลภาษาใหญ่ในการสร้างหรือเขียนเนื้อหาบทความใหม่
  • นโยบายยังอนุญาตให้ใช้ AI ในการแก้ไขข้อความแบบจำกัด หากผู้แก้ไขตรวจสอบความถูกต้องของการเปลี่ยนแปลงและไม่เพิ่มเนื้อหาใหม่
  • กฎนี้สะท้อนความกังวลที่เพิ่มขึ้นเกี่ยวกับภาพลวงตา แหล่งข้อมูลปลอม และความถูกต้องของข้อความที่สร้างด้วย AI

ผู้แก้ไขในวิกิพีเดียได้ดำเนินการจำกัดการใช้ปัญญาประดิษฐ์บนแพลตฟอร์ม โดยมีการอัปเดตนโยบายใหม่ที่ห้ามใช้โมเดลภาษาใหญ่ในการเขียนหรือแก้ไขบทความ แนวทางใหม่นี้สะท้อนความกังวลที่เพิ่มขึ้นในชุมชนวิกิพีเดียว่า เนื้อหาที่สร้างด้วย AI อาจขัดแย้งกับมาตรฐานของแพลตฟอร์ม โดยเฉพาะในเรื่องความสามารถในการตรวจสอบและแหล่งข้อมูลที่เชื่อถือได้ “ข้อความที่สร้างโดยโมเดลภาษาใหญ่บ่อยครั้งละเมิดนโยบายเนื้อหาหลักของวิกิพีเดียหลายข้อ” การอัปเดตนโยบายระบุ “ด้วยเหตุนี้ การใช้ LLMs เพื่อสร้างหรือเขียนเนื้อหาบทความจึงเป็นสิ่งต้องห้าม ยกเว้นในกรณีที่ระบุไว้ด้านล่าง”

นโยบายยังอนุญาตให้ใช้เครื่องมือ AI ในการเสนอการแก้ไขข้อความพื้นฐานในงานเขียนของผู้แก้ไขเอง โดยต้องไม่เพิ่มข้อมูลใหม่ อย่างไรก็ตาม ผู้แก้ไขควรตรวจสอบคำแนะนำเหล่านั้นอย่างรอบคอบ  แม้นโยบายใหม่นี้จะไม่กล่าวถึงบทลงโทษสำหรับการใช้เนื้อหาที่สร้างด้วย AI แต่ตามแนวทางของวิกิพีเดียเกี่ยวกับการเปิดเผย การใช้ซ้ำซากอาจกลายเป็น “รูปแบบของการแก้ไขที่เป็นอันตราย” และอาจนำไปสู่การบล็อกหรือแบนได้ วิกิพีเดียยังเปิดโอกาสให้ผู้แก้ไขสามารถฟื้นฟูบัญชีของตนได้หลังจากกระบวนการอุทธรณ์ “การบล็อกสามารถย้อนกลับได้ด้วยความเห็นชอบของผู้ดูแลที่บล็อก การ override โดยผู้ดูแลคนอื่นในกรณีที่บล็อกนั้นชัดเจนว่าไม่สมควร หรือ (ในกรณีที่หายากมาก) หลังจากอุทธรณ์ต่อคณะอนุญาโตตุลาการ” วิกิพีเดียกล่าว

ตามคำกล่าวของ Emily M. Bender ศาสตราจารย์ด้านภาษาศาสตร์แห่งมหาวิทยาลัยวอชิงตัน การใช้โมเดลภาษาในเครื่องมือแก้ไขบางอย่างอาจเป็นเรื่องสมเหตุสมผล แต่การแบ่งเส้นแบ่งชัดเจนระหว่างการแก้ไขและการสร้างข้อความอาจเป็นเรื่องยาก “ตัวอย่างเช่น หนึ่งในสิ่งที่คุณสามารถทำได้กับโมเดลภาษา คือสร้างเครื่องตรวจสะกดคำที่ดีมาก” Bender กล่าวกับ Decrypt “ผมคิดว่าสามารถอนุญาตให้รันเครื่องตรวจสะกดคำบนการแก้ไขได้ และถ้าคุณทำระดับต่อไปคือเครื่องตรวจไวยากรณ์ ก็สามารถทำได้เช่นกัน” Bender กล่าวว่าความท้าทายเกิดขึ้นเมื่อระบบก้าวข้ามการแก้ไขไวยากรณ์และเริ่มเปลี่ยนแปลงหรือสร้างเนื้อหา โดยเน้นว่าโมเดลภาษาใหญ่ขาดความรับผิดชอบในแบบที่ผู้ร่วมให้ข้อมูลมนุษย์นำมาสู่โครงการความรู้ร่วมกัน “การใช้โมเดลภาษาใหญ่เพื่อผลิตข้อความเทียม เป็นคุณสมบัติพื้นฐานของระบบเหล่านี้ที่ไม่มีความรับผิดชอบ ไม่มีการเชื่อมโยงกับความเชื่อหรือสิ่งที่ใครบางคนยืนหยัดอยู่เบื้องหลัง” เธอกล่าว “เมื่อเราพูด เราพูดบนพื้นฐานของสิ่งที่เราเชื่อและความรับผิดชอบของเรา ไม่ใช่บนความจริงเชิงวัตถุ ซึ่งโมเดลภาษาใหญ่ไม่มีสิ่งนี้” Bender กล่าวว่าการใช้ AI ในการแก้ไขอย่างแพร่หลายอาจส่งผลต่อชื่อเสียงของเว็บไซต์ด้วย “ถ้าผู้คนใช้ทางลัดและสร้างสิ่งที่ดูเหมือนการแก้ไขหรือบทความของวิกิพีเดีย แล้วนำไปวางไว้ที่นั่น ก็จะทำให้คุณค่ารวมและชื่อเสียงของเว็บไซต์เสื่อมลง” เธอกล่าว Joseph Reagle ศาสตราจารย์ด้านการสื่อสารที่มหาวิทยาลัยนอร์ทอีสเทิร์น ซึ่งศึกษาวัฒนธรรมและการบริหารของวิกิพีเดีย กล่าวว่า การตอบสนองของชุมชนสะท้อนความกังวลเรื่องความถูกต้องและแหล่งข้อมูล “วิกิพีเดียระวังเรื่องข้อความที่สร้างด้วย AI” Reagle กล่าวกับ Decrypt “พวกเขาให้ความสำคัญกับการวิเคราะห์ที่แม่นยำเกี่ยวกับสิ่งที่แหล่งข้อมูลเชื่อถือได้กล่าวเกี่ยวกับหัวข้อหนึ่ง ๆ AI มีข้อจำกัดรุนแรงในด้านนี้ เช่น การอ้างอิงที่หลอกลวงและแหล่งข้อมูลปลอม”

Reagle กล่าวว่านโยบายหลักของวิกิพีเดียยังมีอิทธิพลต่อมุมมองของผู้แก้ไขต่อเครื่องมือ AI โดยชี้ให้เห็นว่าหลายโมเดลภาษาใหญ่ได้รับการฝึกบนเนื้อหาของวิกิพีเดีย ในเดือนตุลาคม มูลนิธิวิกิมีเดียกล่าวว่าการเข้าชมวิกิพีเดียของมนุษย์ลดลงประมาณ 8% เมื่อเทียบปีต่อปี เนื่องจากเครื่องมือค้นหาและแชทบอทให้คำตอบโดยตรงบนแพลตฟอร์มมากขึ้น แทนที่จะส่งผู้ใช้ไปยังเว็บไซต์ ในเดือนมกราคม มูลนิธิวิกิมีเดียประกาศข้อตกลงกับบริษัท AI รวมถึง Microsoft, Google, Amazon และ Meta เพื่อให้พวกเขาใช้เนื้อหาของวิกิพีเดียผ่านผลิตภัณฑ์ Enterprise ซึ่งเป็นบริการเชิงพาณิชย์ที่ออกแบบมาเพื่อการนำเนื้อหาไปใช้ซ้ำในระดับใหญ่ “แม้ว่าการใช้เนื้อหาของวิกิพีเดียจะได้รับอนุญาตตามใบอนุญาตของวิกิพีเดีย แต่ก็ยังมีความไม่พอใจในหมู่วิกิพีเดียเกี่ยวกับบริการที่นำเนื้อหาของชุมชนไปใช้และเรียกร้องความต้องการที่ไม่พึงประสงค์ให้ชุมชนรับมือกับปริมาณ AI ที่ล้นหลาม” Reagle กล่าว แม้จะห้ามใช้ LLMs แล้ว แต่วิกิพีเดียอนุญาตให้ใช้เครื่องมือ AI แปลบทความจากภาษาต่างประเทศเป็นภาษาอังกฤษได้ หากผู้แก้ไขตรวจสอบความถูกต้องของต้นฉบับ นโยบายยังเตือนให้ผู้แก้ไขไม่พึ่งพาเพียงสไตล์การเขียนเพื่อระบุเนื้อหาที่สร้างด้วย AI แต่ให้เน้นว่าข้อมูลนั้นเป็นไปตามนโยบายเนื้อหาหลักของวิกิพีเดียและประวัติการแก้ไขของผู้ร่วมแก้ไข “ผู้แก้ไขบางคนอาจมีสไตล์การเขียนคล้ายโมเดลภาษา” ข้อความอัปเดตระบุ “หลักฐานมากกว่าลักษณะทางภาษาและไวยากรณ์เท่านั้นที่จำเป็นเพื่อพิสูจน์ความผิด และควรพิจารณาว่าข้อความเป็นไปตามนโยบายเนื้อหาหลักและการแก้ไขล่าสุดของผู้แก้ไขในกรณีนี้”

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น