ในการทดสอบหลายครั้งพบว่าวิธีนี้สามารถเพิ่มความแม่นยำของผลลัพธ์ AI ได้ถึง 95.6%.
ดังนั้น จึงต้องมีแพลตฟอร์มการตรวจสอบแบบกระจายเพื่อจัดการและตรวจสอบกระบวนการโต้ตอบความร่วมมือระหว่างโมเดลหลักและโมเดลการตรวจสอบ Mira Network เป็นเครือข่ายซอฟต์แวร์กลางที่สร้างขึ้นเพื่อการตรวจสอบ AI LLMs โดยสร้างชั้นการตรวจสอบที่เชื่อถือได้ระหว่างผู้ใช้และโมเดล AI พื้นฐาน
ด้วยการมีอยู่ของเครือข่ายชั้นการตรวจสอบนี้ จะทำให้สามารถให้บริการรวมที่มีการปกป้องความเป็นส่วนตัว การรับประกันความถูกต้อง การออกแบบที่สามารถขยายได้ และ API มาตรฐานต่างๆ นอกจากนี้ยังสามารถขยายความเป็นไปได้ในการนำ AI ไปใช้ในแต่ละแอปพลิเคชันที่แตกต่างกัน โดยการลดภาพหลอนที่เกิดจากการสร้างผลลัพธ์ของ AI LLMs เป็นการปฏิบัติที่สามารถใช้เครือข่ายการตรวจสอบแบบกระจายของ Crypto ในกระบวนการทำงานของ AI LLMs ได้อีกด้วย.
เช่น Mira Network ได้แบ่งปันกรณีศึกษาหลายกรณีในด้านการเงิน การศึกษา และระบบนิเวศของบล็อกเชนที่สามารถพิสูจน์ได้:
1)Gigabrain หลังจากที่รวมเข้ากับ Mira แพลตฟอร์มการซื้อขายสามารถเพิ่มการตรวจสอบวงหนึ่งเพื่อยืนยันความถูกต้องของการวิเคราะห์ตลาดและการคาดการณ์ กรองคำแนะนำที่ไม่น่าเชื่อถือออก ซึ่งสามารถเพิ่มความถูกต้องของสัญญาณการซื้อขาย AI ทำให้ AI LLMs ทำงานในสถานการณ์ DeFai น่าเชื่อถือมากขึ้น;
Learnrite ใช้ mira ในการตรวจสอบคำถามการสอบมาตรฐานที่สร้างโดย AI เพื่อให้สถาบันการศึกษาสามารถใช้เนื้อหาที่สร้างโดย AI ได้อย่างกว้างขวาง โดยไม่ส่งผลกระทบต่อความถูกต้องของเนื้อหาการทดสอบการศึกษา เพื่อรักษามาตรฐานการศึกษาที่เข้มงวด;
โครงการ Blockchain Kernel ใช้กลไกการเห็นพ้องของ LLM ของ Mira เพื่อรวมเข้ากับระบบนิเวศ BNB สร้างเครือข่ายการตรวจสอบแบบกระจายศูนย์ (DVN) ทำให้ความถูกต้องและความปลอดภัยในการดำเนินการคำนวณ AI บนบล็อกเชนได้รับการรับประกันในระดับหนึ่ง.
เหนือ
ในความเป็นจริงผ่านการปรับปรุงการฝึกอบรมของด้านข้อมูลการปรับปรุงการโต้ตอบของโมเดลขนาดใหญ่หลายรูปแบบและการปรับปรุงการประมวลผลความเป็นส่วนตัวผ่านเทคโนโลยีการเข้ารหัสที่มีศักยภาพเช่น ZKP, FHE, TEE ฯลฯ ล้วนเป็นเส้นทางเสริม อย่างไรก็ตามโซลูชันของ Mira มีราคาแพงเนื่องจากสามารถใช้งานได้อย่างรวดเร็วและมีผลโดยตรง
Mira Network สามารถแก้ปัญหา "ภาพหลอน" ของโมเดล AI ใหญ่ได้หรือไม่?
เขียนโดย: Haotian
ทุกคนทราบดีว่าอุปสรรคที่ใหญ่ที่สุดในการนำโมเดล AI ขนาดใหญ่ไปใช้ในสภาพแวดล้อมที่เฉพาะเจาะจงเช่น การเงิน การแพทย์ และกฎหมาย คือปัญหาของ "ภาพหลอน" ที่เกิดจากผลลัพธ์ของ AI ซึ่งไม่สามารถตรงตามความต้องการของการใช้งานที่ต้องการความแม่นยำได้ จะแก้ไขอย่างไรดี? ล่าสุด @Mira_Network ได้เปิดตัวเครือข่ายทดสอบสาธารณะและได้เสนอวิธีการแก้ไข ฉันจะพูดถึงเรื่องนี้:
ก่อนอื่น เครื่องมือ AI ขนาดใหญ่มีกรณีที่เกิด "ภาพหลอน" ซึ่งทุกคนสามารถรับรู้ได้ สาเหตุหลักมีอยู่สองประการ:
1、ข้อมูลการฝึกอบรม AI LLMs ไม่ครบถ้วน แม้ว่าข้อมูลจะมีขนาดใหญ่ แต่ยังไม่สามารถครอบคลุมข้อมูลในบางสาขาที่เฉพาะเจาะจงหรือเล็กน้อยได้ ในกรณีนี้ AI มักจะมีแนวโน้มที่จะทำ "การเติมเต็มที่สร้างสรรค์" ซึ่งส่งผลให้เกิดข้อผิดพลาดในความถูกต้องเชิงเวลาบางอย่าง;
2、AI LLMs ทำงานโดยอิงจาก "การสุ่มตัวอย่างตามความน่าจะเป็น" ซึ่งเป็นการรับรู้รูปแบบทางสถิติและความสัมพันธ์ในข้อมูลที่ฝึกสอน แต่อย่าเข้าใจว่า AI "เข้าใจ" จริงๆ ดังนั้น ความสุ่มของการสุ่มตัวอย่างตามความน่าจะเป็น ความไม่สอดคล้องกันของการฝึกและผลลัพธ์ในการอนุมาน เป็นต้น จึงส่งผลให้ AI มีความเบี่ยงเบนในการจัดการกับปัญหาข้อเท็จจริงที่มีความแม่นยำสูง;
จะจัดการกับปัญหานี้อย่างไร? มีการเผยแพร่เอกสารหนึ่งบนแพลตฟอร์ม ArXiv ของมหาวิทยาลัยคอร์เนลที่เสนอวิธีการยืนยันความน่าเชื่อถือของผลลัพธ์ LLMs โดยใช้โมเดลหลายแบบร่วมกัน.
การเข้าใจอย่างง่ายก็คือ ให้โมเดลหลักสร้างผลลัพธ์ก่อน จากนั้นรวมโมเดลตรวจสอบหลายโมเดลเพื่อทำการ "วิเคราะห์การลงคะแนนเสียงส่วนใหญ่" สำหรับปัญหานั้น เพื่อช่วยลด "ภาพลวงตา" ที่เกิดจากโมเดล.
ในการทดสอบหลายครั้งพบว่าวิธีนี้สามารถเพิ่มความแม่นยำของผลลัพธ์ AI ได้ถึง 95.6%.
ดังนั้น จึงต้องมีแพลตฟอร์มการตรวจสอบแบบกระจายเพื่อจัดการและตรวจสอบกระบวนการโต้ตอบความร่วมมือระหว่างโมเดลหลักและโมเดลการตรวจสอบ Mira Network เป็นเครือข่ายซอฟต์แวร์กลางที่สร้างขึ้นเพื่อการตรวจสอบ AI LLMs โดยสร้างชั้นการตรวจสอบที่เชื่อถือได้ระหว่างผู้ใช้และโมเดล AI พื้นฐาน
ด้วยการมีอยู่ของเครือข่ายชั้นการตรวจสอบนี้ จะทำให้สามารถให้บริการรวมที่มีการปกป้องความเป็นส่วนตัว การรับประกันความถูกต้อง การออกแบบที่สามารถขยายได้ และ API มาตรฐานต่างๆ นอกจากนี้ยังสามารถขยายความเป็นไปได้ในการนำ AI ไปใช้ในแต่ละแอปพลิเคชันที่แตกต่างกัน โดยการลดภาพหลอนที่เกิดจากการสร้างผลลัพธ์ของ AI LLMs เป็นการปฏิบัติที่สามารถใช้เครือข่ายการตรวจสอบแบบกระจายของ Crypto ในกระบวนการทำงานของ AI LLMs ได้อีกด้วย.
เช่น Mira Network ได้แบ่งปันกรณีศึกษาหลายกรณีในด้านการเงิน การศึกษา และระบบนิเวศของบล็อกเชนที่สามารถพิสูจน์ได้:
1)Gigabrain หลังจากที่รวมเข้ากับ Mira แพลตฟอร์มการซื้อขายสามารถเพิ่มการตรวจสอบวงหนึ่งเพื่อยืนยันความถูกต้องของการวิเคราะห์ตลาดและการคาดการณ์ กรองคำแนะนำที่ไม่น่าเชื่อถือออก ซึ่งสามารถเพิ่มความถูกต้องของสัญญาณการซื้อขาย AI ทำให้ AI LLMs ทำงานในสถานการณ์ DeFai น่าเชื่อถือมากขึ้น;
Learnrite ใช้ mira ในการตรวจสอบคำถามการสอบมาตรฐานที่สร้างโดย AI เพื่อให้สถาบันการศึกษาสามารถใช้เนื้อหาที่สร้างโดย AI ได้อย่างกว้างขวาง โดยไม่ส่งผลกระทบต่อความถูกต้องของเนื้อหาการทดสอบการศึกษา เพื่อรักษามาตรฐานการศึกษาที่เข้มงวด;
โครงการ Blockchain Kernel ใช้กลไกการเห็นพ้องของ LLM ของ Mira เพื่อรวมเข้ากับระบบนิเวศ BNB สร้างเครือข่ายการตรวจสอบแบบกระจายศูนย์ (DVN) ทำให้ความถูกต้องและความปลอดภัยในการดำเนินการคำนวณ AI บนบล็อกเชนได้รับการรับประกันในระดับหนึ่ง.
เหนือ
ในความเป็นจริงผ่านการปรับปรุงการฝึกอบรมของด้านข้อมูลการปรับปรุงการโต้ตอบของโมเดลขนาดใหญ่หลายรูปแบบและการปรับปรุงการประมวลผลความเป็นส่วนตัวผ่านเทคโนโลยีการเข้ารหัสที่มีศักยภาพเช่น ZKP, FHE, TEE ฯลฯ ล้วนเป็นเส้นทางเสริม อย่างไรก็ตามโซลูชันของ Mira มีราคาแพงเนื่องจากสามารถใช้งานได้อย่างรวดเร็วและมีผลโดยตรง