Mira Network สามารถแก้ปัญหา "ภาพหลอน" ของโมเดล AI ใหญ่ได้หรือไม่?

robot
ดำเนินการเจนเนเรชั่นบทคัดย่อ

เขียนโดย: Haotian

ทุกคนทราบดีว่าอุปสรรคที่ใหญ่ที่สุดในการนำโมเดล AI ขนาดใหญ่ไปใช้ในสภาพแวดล้อมที่เฉพาะเจาะจงเช่น การเงิน การแพทย์ และกฎหมาย คือปัญหาของ "ภาพหลอน" ที่เกิดจากผลลัพธ์ของ AI ซึ่งไม่สามารถตรงตามความต้องการของการใช้งานที่ต้องการความแม่นยำได้ จะแก้ไขอย่างไรดี? ล่าสุด @Mira_Network ได้เปิดตัวเครือข่ายทดสอบสาธารณะและได้เสนอวิธีการแก้ไข ฉันจะพูดถึงเรื่องนี้:

ก่อนอื่น เครื่องมือ AI ขนาดใหญ่มีกรณีที่เกิด "ภาพหลอน" ซึ่งทุกคนสามารถรับรู้ได้ สาเหตุหลักมีอยู่สองประการ:

1、ข้อมูลการฝึกอบรม AI LLMs ไม่ครบถ้วน แม้ว่าข้อมูลจะมีขนาดใหญ่ แต่ยังไม่สามารถครอบคลุมข้อมูลในบางสาขาที่เฉพาะเจาะจงหรือเล็กน้อยได้ ในกรณีนี้ AI มักจะมีแนวโน้มที่จะทำ "การเติมเต็มที่สร้างสรรค์" ซึ่งส่งผลให้เกิดข้อผิดพลาดในความถูกต้องเชิงเวลาบางอย่าง;

2、AI LLMs ทำงานโดยอิงจาก "การสุ่มตัวอย่างตามความน่าจะเป็น" ซึ่งเป็นการรับรู้รูปแบบทางสถิติและความสัมพันธ์ในข้อมูลที่ฝึกสอน แต่อย่าเข้าใจว่า AI "เข้าใจ" จริงๆ ดังนั้น ความสุ่มของการสุ่มตัวอย่างตามความน่าจะเป็น ความไม่สอดคล้องกันของการฝึกและผลลัพธ์ในการอนุมาน เป็นต้น จึงส่งผลให้ AI มีความเบี่ยงเบนในการจัดการกับปัญหาข้อเท็จจริงที่มีความแม่นยำสูง;

จะจัดการกับปัญหานี้อย่างไร? มีการเผยแพร่เอกสารหนึ่งบนแพลตฟอร์ม ArXiv ของมหาวิทยาลัยคอร์เนลที่เสนอวิธีการยืนยันความน่าเชื่อถือของผลลัพธ์ LLMs โดยใช้โมเดลหลายแบบร่วมกัน.

การเข้าใจอย่างง่ายก็คือ ให้โมเดลหลักสร้างผลลัพธ์ก่อน จากนั้นรวมโมเดลตรวจสอบหลายโมเดลเพื่อทำการ "วิเคราะห์การลงคะแนนเสียงส่วนใหญ่" สำหรับปัญหานั้น เพื่อช่วยลด "ภาพลวงตา" ที่เกิดจากโมเดล.

ในการทดสอบหลายครั้งพบว่าวิธีนี้สามารถเพิ่มความแม่นยำของผลลัพธ์ AI ได้ถึง 95.6%.

ดังนั้น จึงต้องมีแพลตฟอร์มการตรวจสอบแบบกระจายเพื่อจัดการและตรวจสอบกระบวนการโต้ตอบความร่วมมือระหว่างโมเดลหลักและโมเดลการตรวจสอบ Mira Network เป็นเครือข่ายซอฟต์แวร์กลางที่สร้างขึ้นเพื่อการตรวจสอบ AI LLMs โดยสร้างชั้นการตรวจสอบที่เชื่อถือได้ระหว่างผู้ใช้และโมเดล AI พื้นฐาน

ด้วยการมีอยู่ของเครือข่ายชั้นการตรวจสอบนี้ จะทำให้สามารถให้บริการรวมที่มีการปกป้องความเป็นส่วนตัว การรับประกันความถูกต้อง การออกแบบที่สามารถขยายได้ และ API มาตรฐานต่างๆ นอกจากนี้ยังสามารถขยายความเป็นไปได้ในการนำ AI ไปใช้ในแต่ละแอปพลิเคชันที่แตกต่างกัน โดยการลดภาพหลอนที่เกิดจากการสร้างผลลัพธ์ของ AI LLMs เป็นการปฏิบัติที่สามารถใช้เครือข่ายการตรวจสอบแบบกระจายของ Crypto ในกระบวนการทำงานของ AI LLMs ได้อีกด้วย.

เช่น Mira Network ได้แบ่งปันกรณีศึกษาหลายกรณีในด้านการเงิน การศึกษา และระบบนิเวศของบล็อกเชนที่สามารถพิสูจน์ได้:

1)Gigabrain หลังจากที่รวมเข้ากับ Mira แพลตฟอร์มการซื้อขายสามารถเพิ่มการตรวจสอบวงหนึ่งเพื่อยืนยันความถูกต้องของการวิเคราะห์ตลาดและการคาดการณ์ กรองคำแนะนำที่ไม่น่าเชื่อถือออก ซึ่งสามารถเพิ่มความถูกต้องของสัญญาณการซื้อขาย AI ทำให้ AI LLMs ทำงานในสถานการณ์ DeFai น่าเชื่อถือมากขึ้น;

  1. Learnrite ใช้ mira ในการตรวจสอบคำถามการสอบมาตรฐานที่สร้างโดย AI เพื่อให้สถาบันการศึกษาสามารถใช้เนื้อหาที่สร้างโดย AI ได้อย่างกว้างขวาง โดยไม่ส่งผลกระทบต่อความถูกต้องของเนื้อหาการทดสอบการศึกษา เพื่อรักษามาตรฐานการศึกษาที่เข้มงวด;

  2. โครงการ Blockchain Kernel ใช้กลไกการเห็นพ้องของ LLM ของ Mira เพื่อรวมเข้ากับระบบนิเวศ BNB สร้างเครือข่ายการตรวจสอบแบบกระจายศูนย์ (DVN) ทำให้ความถูกต้องและความปลอดภัยในการดำเนินการคำนวณ AI บนบล็อกเชนได้รับการรับประกันในระดับหนึ่ง.

เหนือ

ในความเป็นจริงผ่านการปรับปรุงการฝึกอบรมของด้านข้อมูลการปรับปรุงการโต้ตอบของโมเดลขนาดใหญ่หลายรูปแบบและการปรับปรุงการประมวลผลความเป็นส่วนตัวผ่านเทคโนโลยีการเข้ารหัสที่มีศักยภาพเช่น ZKP, FHE, TEE ฯลฯ ล้วนเป็นเส้นทางเสริม อย่างไรก็ตามโซลูชันของ Mira มีราคาแพงเนื่องจากสามารถใช้งานได้อย่างรวดเร็วและมีผลโดยตรง

ดูต้นฉบับ
เนื้อหานี้มีสำหรับการอ้างอิงเท่านั้น ไม่ใช่การชักชวนหรือข้อเสนอ ไม่มีคำแนะนำด้านการลงทุน ภาษี หรือกฎหมาย ดูข้อจำกัดความรับผิดชอบสำหรับการเปิดเผยความเสี่ยงเพิ่มเติม
  • รางวัล
  • แสดงความคิดเห็น
  • แชร์
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น
  • ปักหมุด