ทุกคนต่างก็รู้กันดีว่าการนำโมเดล AI ขนาดใหญ่ไปใช้ในสาขาเฉพาะเช่น การเงิน การแพทย์ และกฎหมาย มีอุปสรรคใหญ่เพียงข้อเดียว: ปัญหาความ "หลงผิด" ของผลลัพธ์ที่ AI สร้างขึ้นนั้นไม่สามารถจับคู่กับความแม่นยำที่ต้องการในสถานการณ์การใช้งานจริงได้ จะมีวิธีการแก้ไขอย่างไร? ล่าสุด @Mira_Network ได้เปิดตัว Testnet สาธารณะ และเสนอชุดวิธีการแก้ไข ผมจะมาเล่าให้ฟังว่ามันคืออะไร:
ก่อนอื่น เครื่องมือโมเดล AI ขนาดใหญ่มีสถานการณ์ที่เรียกว่า "ภาพลวง" ซึ่งทุกคนสามารถรับรู้ได้ สาเหตุหลักมีสองประการ:
ข้อมูลการฝึกอบรมของ AI LLMs ไม่สมบูรณ์และแม้ว่าข้อมูลที่มีอยู่จะมีขนาดใหญ่มาก แต่ก็ยังไม่สามารถครอบคลุมข้อมูลเฉพาะหรือข้อมูลระดับมืออาชีพได้ดังนั้น AI จึงมีแนวโน้มที่จะทํา "การสร้างสรรค์ให้เสร็จสมบูรณ์" แล้วนําไปสู่ข้อผิดพลาดแบบเรียลไทม์
ในการทดสอบชุดหนึ่งพบว่าวิธีนี้สามารถเพิ่มความแม่นยำในการผลิตของ AI ได้ถึง 95.6%.
เมื่อเป็นเช่นนั้น แน่นอนว่าจำเป็นต้องมีแพลตฟอร์มการตรวจสอบแบบกระจายเพื่อจัดการและตรวจสอบกระบวนการโต้ตอบร่วมกันระหว่างโมเดลหลักและโมเดลการตรวจสอบ Mira Network คือเครือข่ายซอฟต์แวร์กลางที่สร้างขึ้นเพื่อการตรวจสอบ AI LLMs โดยสร้างชั้นการตรวจสอบที่เชื่อถือได้ระหว่างผู้ใช้และโมเดล AI พื้นฐาน
เมื่อมีเครือข่ายชั้นการตรวจสอบนี้อยู่ ก็สามารถให้บริการแบบรวมรวมได้หลากหลาย เช่น การป้องกันความเป็นส่วนตัว การรับประกันความถูกต้อง การออกแบบที่สามารถขยายได้ และ API มาตรฐาน ซึ่งสามารถขยายความเป็นไปได้ของ AI ในแต่ละสถานการณ์การใช้งานที่แตกต่างกัน โดยการลดอาการหลอกหลอนที่เกิดจากการส่งออกของ AI LLMs นอกจากนี้ยังเป็นการปฏิบัติที่ Crypto เครือข่ายการตรวจสอบแบบกระจายสามารถนำมาใช้ในกระบวนการสร้าง AI LLMs ได้อีกด้วย.
ตัวอย่างเช่น Mira Network ได้แชร์กรณีศึกษาหลายกรณีในด้านการเงิน การศึกษา และระบบนิเวศของบล็อกเชนเพื่อเป็นหลักฐาน:
1)Gigabrain เมื่อรวมเข้ากับ Mira บนแพลตฟอร์มการซื้อขาย ระบบสามารถเพิ่มการตรวจสอบเพื่อตรวจสอบความแม่นยำของการวิเคราะห์ตลาดและการคาดการณ์ กรองคำแนะนำที่ไม่น่าเชื่อถือออกไป ซึ่งสามารถเพิ่มความแม่นยำของสัญญาณการซื้อขาย AI ทำให้ AI LLMs ทำงานในฉาก DeFai มีความน่าเชื่อถือมากขึ้น;
2)Learnrite ใช้ mira ในการตรวจสอบข้อสอบมาตรฐานที่สร้างโดย AI เพื่อให้สถาบันการศึกษาสามารถใช้เนื้อหาที่สร้างโดย AI ได้อย่างกว้างขวาง โดยไม่กระทบต่อความถูกต้องของเนื้อหาการทดสอบการศึกษา เพื่อรักษามาตรฐานการศึกษาที่เข้มงวด;
3)โครงการ Kernel บนบล็อกเชนใช้กลไกฉันทามติ LLM ของ Mira โดยนำมารวมเข้ากับระบบนิเวศ BNB สร้างเครือข่ายการตรวจสอบแบบกระจายศูนย์ DVN ซึ่งทำให้ความถูกต้องและความปลอดภัยของการดำเนินการคำนวณ AI บนบล็อกเชนได้รับการรับประกันในระดับหนึ่ง.
เหนือ
จริงๆ แล้ว Mira Network ให้บริการโครงข่ายความเห็นร่วมเป็นกลาง ซึ่งแน่นอนว่าไม่ใช่วิธีเดียวที่จะเพิ่มความสามารถของแอปพลิเคชัน AI ในความเป็นจริงแล้ว การเสริมสร้างผ่านการฝึกฝนจากข้อมูล การเสริมสร้างผ่านการมีปฏิสัมพันธ์ของโมเดลขนาดใหญ่หลายโหมด และการเสริมสร้างผ่านการคำนวณความเป็นส่วนตัวด้วยเทคโนโลยีการเข้ารหัสที่อาจเกิดขึ้น เช่น ZKP, FHE, TEE เป็นต้น ก็เป็นเส้นทางที่เลือกได้ แต่เมื่อเปรียบเทียบแล้ว โซลูชันของ Mira มีคุณค่าในด้านการนำไปใช้ที่รวดเร็วและเห็นผลโดยตรง.
Mira Network如何ใช้การกระจายอำนาจเครือข่ายแก้ไขปัญหาความผิดพลาดของโมเดลขนาดใหญ่"幻觉"?
ทุกคนต่างก็รู้กันดีว่าการนำโมเดล AI ขนาดใหญ่ไปใช้ในสาขาเฉพาะเช่น การเงิน การแพทย์ และกฎหมาย มีอุปสรรคใหญ่เพียงข้อเดียว: ปัญหาความ "หลงผิด" ของผลลัพธ์ที่ AI สร้างขึ้นนั้นไม่สามารถจับคู่กับความแม่นยำที่ต้องการในสถานการณ์การใช้งานจริงได้ จะมีวิธีการแก้ไขอย่างไร? ล่าสุด @Mira_Network ได้เปิดตัว Testnet สาธารณะ และเสนอชุดวิธีการแก้ไข ผมจะมาเล่าให้ฟังว่ามันคืออะไร:
ก่อนอื่น เครื่องมือโมเดล AI ขนาดใหญ่มีสถานการณ์ที่เรียกว่า "ภาพลวง" ซึ่งทุกคนสามารถรับรู้ได้ สาเหตุหลักมีสองประการ:
2、AI LLMs ทำงานโดยอิงจาก "การสุ่มแบบมีความน่าจะเป็น" ซึ่งเป็นการระบุรูปแบบทางสถิติและความสัมพันธ์ในข้อมูลการฝึกอบรม แทนที่จะ "เข้าใจ" อย่างแท้จริง ดังนั้น ความไม่แน่นอนของการสุ่มแบบมีความน่าจะเป็น ความไม่สอดคล้องกันของการฝึกอบรมและผลการอนุมาน ฯลฯ จะทำให้ AI มีความเบี่ยงเบนในการจัดการกับปัญหาข้อเท็จจริงที่มีความแม่นยำสูง;
จะจัดการกับปัญหานี้ได้อย่างไร? มีบทความที่เผยแพร่บนแพลตฟอร์ม ArXiv ของมหาวิทยาลัยคอร์เนลเกี่ยวกับวิธีการตรวจสอบความน่าเชื่อถือของผลลัพธ์ LLMs โดยใช้โมเดลหลายตัวร่วมกัน.
เข้าใจง่ายๆ คือ ให้โมเดลหลักสร้างผลลัพธ์ก่อน แล้วจึงรวมโมเดลตรวจสอบหลายตัวเพื่อทำการ "วิเคราะห์การลงคะแนนเสียงส่วนใหญ่" เกี่ยวกับปัญหานั้นๆ เพื่อช่วยลด "ภาพหลอน" ที่โมเดลสร้างขึ้น.
ในการทดสอบชุดหนึ่งพบว่าวิธีนี้สามารถเพิ่มความแม่นยำในการผลิตของ AI ได้ถึง 95.6%.
เมื่อเป็นเช่นนั้น แน่นอนว่าจำเป็นต้องมีแพลตฟอร์มการตรวจสอบแบบกระจายเพื่อจัดการและตรวจสอบกระบวนการโต้ตอบร่วมกันระหว่างโมเดลหลักและโมเดลการตรวจสอบ Mira Network คือเครือข่ายซอฟต์แวร์กลางที่สร้างขึ้นเพื่อการตรวจสอบ AI LLMs โดยสร้างชั้นการตรวจสอบที่เชื่อถือได้ระหว่างผู้ใช้และโมเดล AI พื้นฐาน
เมื่อมีเครือข่ายชั้นการตรวจสอบนี้อยู่ ก็สามารถให้บริการแบบรวมรวมได้หลากหลาย เช่น การป้องกันความเป็นส่วนตัว การรับประกันความถูกต้อง การออกแบบที่สามารถขยายได้ และ API มาตรฐาน ซึ่งสามารถขยายความเป็นไปได้ของ AI ในแต่ละสถานการณ์การใช้งานที่แตกต่างกัน โดยการลดอาการหลอกหลอนที่เกิดจากการส่งออกของ AI LLMs นอกจากนี้ยังเป็นการปฏิบัติที่ Crypto เครือข่ายการตรวจสอบแบบกระจายสามารถนำมาใช้ในกระบวนการสร้าง AI LLMs ได้อีกด้วย.
ตัวอย่างเช่น Mira Network ได้แชร์กรณีศึกษาหลายกรณีในด้านการเงิน การศึกษา และระบบนิเวศของบล็อกเชนเพื่อเป็นหลักฐาน:
1)Gigabrain เมื่อรวมเข้ากับ Mira บนแพลตฟอร์มการซื้อขาย ระบบสามารถเพิ่มการตรวจสอบเพื่อตรวจสอบความแม่นยำของการวิเคราะห์ตลาดและการคาดการณ์ กรองคำแนะนำที่ไม่น่าเชื่อถือออกไป ซึ่งสามารถเพิ่มความแม่นยำของสัญญาณการซื้อขาย AI ทำให้ AI LLMs ทำงานในฉาก DeFai มีความน่าเชื่อถือมากขึ้น;
2)Learnrite ใช้ mira ในการตรวจสอบข้อสอบมาตรฐานที่สร้างโดย AI เพื่อให้สถาบันการศึกษาสามารถใช้เนื้อหาที่สร้างโดย AI ได้อย่างกว้างขวาง โดยไม่กระทบต่อความถูกต้องของเนื้อหาการทดสอบการศึกษา เพื่อรักษามาตรฐานการศึกษาที่เข้มงวด;
3)โครงการ Kernel บนบล็อกเชนใช้กลไกฉันทามติ LLM ของ Mira โดยนำมารวมเข้ากับระบบนิเวศ BNB สร้างเครือข่ายการตรวจสอบแบบกระจายศูนย์ DVN ซึ่งทำให้ความถูกต้องและความปลอดภัยของการดำเนินการคำนวณ AI บนบล็อกเชนได้รับการรับประกันในระดับหนึ่ง.
เหนือ
จริงๆ แล้ว Mira Network ให้บริการโครงข่ายความเห็นร่วมเป็นกลาง ซึ่งแน่นอนว่าไม่ใช่วิธีเดียวที่จะเพิ่มความสามารถของแอปพลิเคชัน AI ในความเป็นจริงแล้ว การเสริมสร้างผ่านการฝึกฝนจากข้อมูล การเสริมสร้างผ่านการมีปฏิสัมพันธ์ของโมเดลขนาดใหญ่หลายโหมด และการเสริมสร้างผ่านการคำนวณความเป็นส่วนตัวด้วยเทคโนโลยีการเข้ารหัสที่อาจเกิดขึ้น เช่น ZKP, FHE, TEE เป็นต้น ก็เป็นเส้นทางที่เลือกได้ แต่เมื่อเปรียบเทียบแล้ว โซลูชันของ Mira มีคุณค่าในด้านการนำไปใช้ที่รวดเร็วและเห็นผลโดยตรง.