เป้าหมายของบทความนี้คือการสํารวจกระบวนทัศน์ที่บางที AI สามารถใช้เพื่อให้เราได้รับประโยชน์จากโครงสร้างประชาธิปไตยโดยไม่มีผลกระทบด้านลบ "AI คือเครื่องยนต์ มนุษย์คือพวงมาลัย" มนุษย์ให้ข้อมูลเพียงเล็กน้อยแก่ระบบอาจจะเพียงไม่กี่ร้อย แต่ก็คิดมาอย่างดีและมีคุณภาพสูงมาก AI ถือว่าข้อมูลนี้เป็น "ฟังก์ชันวัตถุประสงค์" และทํางานอย่างไม่รู้จักเหน็ดเหนื่อยเพื่อตัดสินใจมากมายเพื่อพยายามอย่างเต็มที่เพื่อให้บรรลุเป้าหมายเหล่านี้ โดยเฉพาะอย่างยิ่งบทความนี้จะสํารวจคําถามที่น่าสนใจ: เราสามารถทําสิ่งนี้ได้โดยไม่ต้องวาง AI ตัวเดียวไว้ตรงกลาง แต่อาศัยตลาดเปิดที่มีการแข่งขันซึ่ง AI (หรือไฮบริดระหว่างมนุษย์กับเครื่องจักร) สามารถเข้าร่วมได้อย่างอิสระ?
สารบัญ
ทำไมไม่ให้ AI คนหนึ่งมาควบคุมเลย?
Futarchy
กลั่นกรองการตัดสินของมนุษย์
การระดมทุนลึก
เพิ่มความเป็นส่วนตัว
ประโยชน์ของการออกแบบเครื่องยนต์ + พวงมาลัย
ทําไมไม่ปล่อยให้ AI รับผิดชอบ?
วิธีที่ง่ายที่สุดในการฝังความชอบของมนุษย์ในกลไกที่ใช้ AI คือการสร้างโมเดล AI และให้มนุษย์ป้อนความชอบของพวกเขาในโมเดลนั้นในทางใดทางหนึง มีวิธีที่ง่ายที่สามารถทำได้: คุณเพียงแค่ใส่ไฟล์ข้อความที่มีรายการคำสั่งของบุคคลลงในโปรมปท์ระบบเท่านั้น จากนั้นคุณสามารถใช้หนึ่งในหลาย 'เฟรมเวิร์ก AI ตัวแทน' เพื่อให้ AI สามารถเข้าถึงอินเทอร์เน็ต และให้มันส่งกุญแจของทรัพย์สินและโปรไฟล์โซเชียลมีเดียของคุณ และคุณก็เสร็จสิ้นแล้ว
หลังจากการอัปเดตหลายครั้งแล้ว น่าจะเพียงพอต่อความต้องการของหลายๆ กรณีใช้งาน ฉันคาดหวังอย่างสมบูรณ์ว่าในอนาคตไม่ไกล เราจะเห็นโครงสร้างที่เกี่ยวข้องกับการอ่าน AI ให้คำแนะนำ (และบางทีการอ่านกลุ่มสนทนาแบบเรียลไทม์) และดำเนินการตามคำสั่ง
เห็นได้ชัดว่า AI จะเป็นส่วนสําคัญของอนาคตและจะกลายเป็นส่วนสําคัญของการกํากับดูแลในอนาคตอย่างหลีกเลี่ยงไม่ได้ อย่างไรก็ตามหากคุณเกี่ยวข้องกับ AI ในการกํากับดูแลมีความเสี่ยงที่เห็นได้ชัด: AI มีอคติอาจถูกทําลายโดยเจตนาในระหว่างการฝึกอบรมและเทคโนโลยี AI กําลังพัฒนาอย่างรวดเร็วจน "การทําให้ AI อยู่ในอํานาจ" อาจหมายถึง "การรับผิดชอบในการอัพเกรด AI" การตัดสินของมนุษย์ที่กลั่นออกมาเป็นหนทางทางเลือกที่ก้าวไปข้างหน้าทําให้เราสามารถควบคุมพลังของ AI ในลักษณะที่เปิดกว้างและตลาดเสรีในขณะที่ยังคงรักษาระบอบประชาธิปไตยที่ควบคุมโดยมนุษย์
Vitalik บทความใหม่: แบบแผนการปกครองใหม่ในอนาคต 'เครื่องยนต์ AI + พวกเราเป็นที่นำทาง'
ชื่อเดิม: "AI as the engine, humans as the steering wheel"
เขียนโดย: Vitalik ผู้ก่อตั้งอีเธอเรียม
คอมไพล์: ไบ้ชูล, โฆษณาทอง
หากคุณถามคนเกี่ยวกับสิ่งที่พวกเขาชอบในโครงสร้างประชาธิปไตย ไมว่าจะเป็นรัฐบาล สถานที่ทำงาน หรือ DAO ที่ขึ้นอยู่กับบล็อกเชน คุณจะได้ยินเหตุผลเดียวกันบ่อย: มันช่วยป้องกันการเกิดอำนาจส่วนใหญ่ มันให้ความมั่นใจที่แข็งแรงให้กับผู้ใช้เพราะไม่มีใครสามารถเปลี่ยนทิศทางของระบบได้โดยไม่สนใจใคร และมันสามารถทำการตัดสินใจที่มีคุณภาพสูงขึ้นได้ด้วยการเก็บความคิดเห็นและความสติปัญญาจากหลายๆ คน
หากคุณถามว่าคนไม่ชอบด้านใดของโครงสร้างประชาธิปไตย พวกเขามักจะบ่นเกี่ยวกับสิ่งเดียวกัน: ผู้มีสิทธิเลือกตั้งธรรมดาไม่มีความชำนาญเพียงพอ เนื่องจากแต่ละคนมีโอกาสที่น้อยมากที่จะสามารถมีผลต่อผลลัพธ์ มีน้อยมากที่จะมีผู้มีสิทธิเลือกตั้งที่มีการคิดอย่างมีคุณภาพสูง และคุณมักจะได้รับการเข้าร่วมที่น้อย (ทำให้ระบบเป็นเป้าหมายง่าย) หรือจริง ๆ แล้วเป็นการทำให้มีศูนย์กลาง เนื่องจากทุกคนมักวางความไว้วางใจและทำซ้ำทฤษฎีของบางคนที่มีอิทธิพล
เป้าหมายของบทความนี้คือการสํารวจกระบวนทัศน์ที่บางที AI สามารถใช้เพื่อให้เราได้รับประโยชน์จากโครงสร้างประชาธิปไตยโดยไม่มีผลกระทบด้านลบ "AI คือเครื่องยนต์ มนุษย์คือพวงมาลัย" มนุษย์ให้ข้อมูลเพียงเล็กน้อยแก่ระบบอาจจะเพียงไม่กี่ร้อย แต่ก็คิดมาอย่างดีและมีคุณภาพสูงมาก AI ถือว่าข้อมูลนี้เป็น "ฟังก์ชันวัตถุประสงค์" และทํางานอย่างไม่รู้จักเหน็ดเหนื่อยเพื่อตัดสินใจมากมายเพื่อพยายามอย่างเต็มที่เพื่อให้บรรลุเป้าหมายเหล่านี้ โดยเฉพาะอย่างยิ่งบทความนี้จะสํารวจคําถามที่น่าสนใจ: เราสามารถทําสิ่งนี้ได้โดยไม่ต้องวาง AI ตัวเดียวไว้ตรงกลาง แต่อาศัยตลาดเปิดที่มีการแข่งขันซึ่ง AI (หรือไฮบริดระหว่างมนุษย์กับเครื่องจักร) สามารถเข้าร่วมได้อย่างอิสระ?
สารบัญ
ทำไมไม่ให้ AI คนหนึ่งมาควบคุมเลย?
Futarchy
กลั่นกรองการตัดสินของมนุษย์
การระดมทุนลึก
เพิ่มความเป็นส่วนตัว
ประโยชน์ของการออกแบบเครื่องยนต์ + พวงมาลัย
ทําไมไม่ปล่อยให้ AI รับผิดชอบ?
วิธีที่ง่ายที่สุดในการฝังความชอบของมนุษย์ในกลไกที่ใช้ AI คือการสร้างโมเดล AI และให้มนุษย์ป้อนความชอบของพวกเขาในโมเดลนั้นในทางใดทางหนึง มีวิธีที่ง่ายที่สามารถทำได้: คุณเพียงแค่ใส่ไฟล์ข้อความที่มีรายการคำสั่งของบุคคลลงในโปรมปท์ระบบเท่านั้น จากนั้นคุณสามารถใช้หนึ่งในหลาย 'เฟรมเวิร์ก AI ตัวแทน' เพื่อให้ AI สามารถเข้าถึงอินเทอร์เน็ต และให้มันส่งกุญแจของทรัพย์สินและโปรไฟล์โซเชียลมีเดียของคุณ และคุณก็เสร็จสิ้นแล้ว
หลังจากการอัปเดตหลายครั้งแล้ว น่าจะเพียงพอต่อความต้องการของหลายๆ กรณีใช้งาน ฉันคาดหวังอย่างสมบูรณ์ว่าในอนาคตไม่ไกล เราจะเห็นโครงสร้างที่เกี่ยวข้องกับการอ่าน AI ให้คำแนะนำ (และบางทีการอ่านกลุ่มสนทนาแบบเรียลไทม์) และดำเนินการตามคำสั่ง
โครงสร้างนี้ไม่เหมาะที่จะเป็นกลไกการกํากับดูแลในฐานะสถาบันระยะยาว คุณลักษณะที่มีค่าที่สถาบันระยะยาวควรมีคือความน่าเชื่อถือและความเป็นกลาง ในโพสต์ของฉันแนะนําแนวคิดนี้ฉันได้ระบุคุณลักษณะที่มีค่าสี่ประการของความเป็นกลางที่น่าเชื่อถือ:
ไม่ต้องเขียนคนหรือผลลัพธ์ที่ระบุเข้าสู่กลไก
การดำเนินการที่เปิดเผยและสามารถตรวจสอบได้
การเรียบง่าย
อย่าเปลี่ยนบ่อยเกินไป
LLM (หรือ AI ตัวแทน) ตรงกับ 0/4 โมเดลนี้ไม่สามารถหลีกเลี่ยงที่จะทำการเข้ารหัสข้อมูลที่เป็นพิเศษเกี่ยวกับความชอบของมนุษย์และผลลัพธ์ในระหว่างการฝึกอบรม บางครั้งสิ่งนี้อาจทำให้สิ่งที่ AI ชอบมีทิศทางที่น่าแปลกใจ เช่น ดูการวิจัยล่าสุดบางรายงานว่า LLM สำคัญกับการดำเนินชีวิตของประเทศปากีสถานมากกว่าการดำเนินชีวิตของสหรัฐอเมริกา (!!) มันอาจเปิดอนุญาตให้ปรับน้ำหนัก แต่ยังไม่ได้เปิดเผย; จริงๆ แล้วเราไม่รู้ว่ามีอะไรตกค้างอยู่ในความซับซ้อนของโมเดล มันไม่เรียบง่าย: ความซับซ้อนของ Kolmogorov ของ LLM มีเลขล้านตัวเรื่อง โดยประมาณเท่ากับผลรวมของกฎหมายทั้งหมดของสหรัฐอเมริกา (รัฐบาล + รัฐ + ท้องถิ่น) และเนื่องจาก AI กำลังพัฒนาอย่างรวดเร็ว คุณต้องเปลี่ยนแปลงทุก 3 เดือน
ด้วยเหตุนี้อีกแนวทางหนึ่งที่ฉันชอบสํารวจในหลาย ๆ กรณีการใช้งานคือการมีกลไกง่ายๆเป็นกฎของเกมและ AI เป็นผู้เล่น มันเป็นข้อมูลเชิงลึกที่ทําให้ตลาดมีประสิทธิภาพมาก: กฎเป็นระบบสิทธิในทรัพย์สินที่ค่อนข้างโง่คดีขอบจะถูกตัดสินโดยระบบศาลที่ค่อยๆสะสมและปรับแบบอย่างและสติปัญญาทั้งหมดมาจากผู้ประกอบการที่ดําเนินงาน
ผู้เล่นเกมแต่ละคนสามารถเป็น LLM ที่มีการโต้ตอบกันและเรียกใช้บริการอินเทอร์เน็ตต่าง ๆ ของ LLM กลุ่ม รวมถึงการผสม AI + มนุษย์และสร้างสรรค์อื่น ๆ หลายอย่าง; ในฐานะผู้ออกแบบกลไก คุณไม่จำเป็นต้องรู้ในส่วนนั้น ๆ วัตถุประสงค์ที่ดีที่สุดคือมีกลไกที่สามารถทำงานโดยอัตโนมัติ - หากวัตถุประสงค์ของกลไกคือการเลือกทุนอะไร ก็ควรทำได้เท่าที่จะเหมือนกับการตอบแทนบล็อกของ Bitcoin หรือ Ethereum 0(
ข้อดีของวิธีนี้คือ:
หลีกเลี่ยงการรวมโมเดลเดียวเข้ากับกลไก แต่คุณจะได้รับตลาดเปิดที่ประกอบด้วยผู้เล่นและสถาปัตยกรรมที่แตกต่างกันมากมายซึ่งทั้งหมดนี้มีอคติที่แตกต่างกัน โมเดลเปิด, โมเดลปิด, กลุ่มตัวแทน, ลูกผสมมนุษย์+AI, หุ่นยนต์, ลิงอนันต์ ฯลฯ ล้วนเป็นเกมที่ยุติธรรม กลไกนี้ไม่เลือกปฏิบัติกับใคร
การจัดตั้งนี้เปิดเผย
การดำเนินการนี้เป็นเรื่องง่ายมากเพราะนักออกแบบกลไกมีทางเข้าที่เป็นที่น้อยของการเข้ารหัสความเคารพของตัวเองในการออกแบบ
กลไกนี้จะไม่เปลี่ยนแปลง แม้จะเริ่มต้นจากขณะนี้จนถึงจุดพิกัด โครงสร้างของผู้เข้าร่วมในระดับล่างจะต้องออกแบบใหม่ทุกสามเดือน
เป้าหมายของกลไกการนำทางคือที่จะสะท้อนความตั้งใจของผู้เข้าร่วมอย่างซื่อสัตย์ มันต้องให้ข้อมูลในปริมาณน้อย แต่ต้องเป็นข้อมูลที่มีคุณภาพสูง
คุณสามารถพิจารณาว่ากลไกนี้ใช้ความไมสมมาตรระหว่างการ提出คำตอบและการตรวจสอบคำตอบ
Futarchy
Futarchy ถูกเสนอครั้งแรกโดย Robin Hanson ซึ่งหมายถึง "ลงคะแนนเสียงเพื่อค่าเดิมพันความเชื่อ" กลไกการลงคะแนนเลือกกลุ่มเป้าหมาย (สามารถเป็นเป้าหมายใดก็ได้ แต่เงื่อนไขคือต้องสามารถวัดได้) และจะรวมมันเข้าด้วยกันเป็นค่ามาตรวัด M ขณะที่คุณต้องการตัดสินใจ (เพื่อความง่ายในตัวอย่าง เราสมมติว่าเป็น YES/NO) คุณจะสร้างตลาดเงื่อนไข: คุณจะขอให้คนลงเดิมพัน )i( ว่าจะเลือก YES หรือ NO )ii( ถ้าเลือก YES ค่า M มีค่า มิฉะนั้นเป็นศูนย์ )iii( ถ้าเลือก NO ค่า M มีค่า มิฉะนั้นเป็นศูนย์ มีทั้งสิบสิบ ด้วยสามตัวแปรเหล่านี้ คุณสามารถระบุได้ว่าตลาดคิดว่า YES หรือ NO จะเหมาะสมกับค่า M มากกว่า
"ราคาหุ้นบริษัท" (หรือสำหรับสกุลเงินดิจิทัล ราคาโทเค็น) เป็นตัวชี้วัดที่ถูกอ้างอิงมากที่สุดเนื่องจากมันเข้าใจและวัดได้ง่าย แต่กลไกนี้สามารถสนับสนุนหลายตัวชี้วัด: ผู้ใช้เข้าใช้งานรายเดือน ค่าเฉลี่ยความสุขที่รายงานของกลุ่มบางกลุ่ม ตัวชี้วัดการกระจายอำนาจที่สามารถวัดได้
Futarchy ตั้งแต่เริ่มแรกได้ถูกสร้างขึ้นก่อนยุคปัจจุบันของปัญญาประดิษฐ์ อย่างไรก็ตาม Futarchy สอดคล้องกับแนวคิด "ผู้แก้ปัญหาที่ซับซ้อน ผู้ตรวจสอบที่ง่ายดาย" ที่ได้กล่าวถึงไว้ในส่วนก่อนหน้า และใน Futarchy ผู้ซื้อขายก็สามารถเป็นปัญญาประดิษฐ์ (หรือคน + ปัญญาประดิษฐ์) ด้วย "ผู้แก้ปัญหา" (ผู้คาดการณ์ตลาด) จะทำหน้าที่กำหนดว่าแผนการของแต่ละข้อเสนอจะมีผลต่อค่าของตัวชี้วัดในอนาคตอย่างไร ซึ่งเป็นเรื่องยากมาก หากผู้แก้ปัญหาถูกต้อง พวกเขาก็จะได้รับเงิน แต่หากผู้แก้ปัญหาผิดพลาด พวกเขาก็จะเสียเงิน ผู้ตรวจสอบ (ผู้ลงคะแนนให้กับตัวชี้วัด หากพวกเขาสังเกตว่าตัวชี้วัดถูก "ปรับแต่ง" หรือเริ่มเป็นล้า พวกเขาก็จะปรับตัวชี้วัด และกำหนดค่าตัวชี้วัดที่แท้จริงในอนาคต) ก็เพียงแค่ตอบคำถามที่ง่ายกว่าว่า "ค่าตัวชี้วัดขณะนี้เท่าไหร่"
การตัดสินของมนุษย์
การหมักหมายถึงการจัดกลุ่มของมนุษย์เป็นกลุ่มหนึ่งของกลไก ที่การทำงานของมันคือมีประกาศดังนี้ มีจำนวนมาก (คิด: 1000000) คำถามที่ต้องตอบ ตัวอย่างที่เป็นธรรมชาติประกอบด้วย:
ในรายชื่อนี้ ความสำเร็จของแต่ละคนในโครงการหรืองานที่เขาทำสามารถได้รับเกียรติ
ความคิดเห็นเหล่านี้ละเมิดกฎของแพลตฟอร์มโซเชียลมีเดีย (หรือชุมชนย่อย) อะไรบ้าง?
ที่อยู่อีเธอเรียที่ให้มานี้ แทนบุคคลที่เป็นจริงและเป็นเอกลักษณ์
วัตถุทางกายภาพเหล่านี้มีส่วนช่วยให้สวยงามของสิ่งแวดล้อมอย่างไรบ้าง ที่มีส่วนสร้างสรรค์หรือเสียหาย
คุณมีทีมที่สามารถตอบคำถามเหล่านี้ แต่คุณต้องใช้ความพยายามมากมายในการตอบทุกคำถาม คุณสามารถขอให้ทีมตอบคำถามเพียงเล็กน้อย (เช่น หากมีรายการรวมทั้งหมด 1 ล้านรายการ ทีมอาจตอบเพียง 100 รายการ) คุณยังสามารถถามทีมโดยตรงเกี่ยวกับคำถามทางอ้อม: อย่าถาม "Alice ควรได้รับเครดิตรวมกี่เปอร์เซ็นต์?" แต่ถามว่า "Alice หรือ Bob ควรได้รับเครดิตเพิ่มขึ้นหรือไม่ และมากขนาดเท่าใด?" เมื่อออกแบบกลไกลูกัส คุณสามารถใช้กลไกที่ได้รับการทดสอบในโลกแห่งความเป็นจริง เช่น คณะกรรมการงบประมาณ ศาล (กำหนดค่าคดี) การประเมินค่า และแน่นอน ผู้เข้าร่วมคณะกรรมการยังสามารถใช้เครื่องมือวิจัย AI ที่เป็นสิ่งใหม่เพื่อช่วยพวกเขาค้นหาคำตอบ
จากนั้นคุณอนุญาตให้ใครก็ตามส่งรายการคำตอบตัวเลขสำหรับชุดปัญหาทั้งหมด (เช่น ให้ค่าประมาณของเครดิตที่แต่ละผู้เข้าร่วมควรได้รับในรายการทั้งหมด) สร้างแรงจูงให้ผู้เข้าร่วมใช้ปัญญาประดิษฐ์ในการทำงานนี้ แต่พวกเขาสามารถใช้เทคโนโลยีใดก็ได้: ปัญญาประดิษฐ์ ผสมระหว่างมนุษย์และเครื่องจักร ปัญญาประดิษฐ์ที่สามารถเข้าถึงการค้นหาอินเทอร์เน็ตและสามารถจ้างคนหรือปัญญาประดิษฐ์คนอื่นๆ ได้โดยอิสระ ปัญญาประดิษฐ์ที่ได้รับการปรับปรุงด้วยทฤษฎีการควบคุม ลิงก์
เมื่อทั้งผู้ให้บริการรายชื่อทั้งหมดและลูกขุนได้ส่งคําตอบแล้วรายการทั้งหมดจะถูกตรวจสอบกับคําตอบของคณะลูกขุนและการรวมกันของรายการทั้งหมดที่เข้ากันได้กับคําตอบของคณะลูกขุนมากที่สุดจะถูกใช้เป็นคําตอบสุดท้าย
กลไกการตัดสินของมนุษย์ที่ถูกกล่าวถึงแตกต่างจาก futarchy อย่างไรก็ตามมีข้อคล้ายคลึงบางอย่างที่สำคัญ:
ใน futarchy ผู้ 'วิเคราะห์' จะทำการคาดการณ์ และ 'ข้อมูลที่แท้จริง' (ที่ใช้ในการรางวัลหรือลงโทษผู้ 'วิเคราะห์') คือตัวชี้วัดที่ออกมาจากการพยากรณ์ของเครื่องทำนายที่ถูกเรียกใช้โดยภาคีวิธี
ในการตัดสินของมนุษย์กลั่น "ผู้แก้" ให้คําตอบสําหรับคําถามจํานวนมากและ "ข้อมูลจริง" ที่การคาดการณ์ของพวกเขาขึ้นอยู่กับคําตอบที่มีคุณภาพสูงสําหรับเศษเสี้ยวของคําถามเหล่านี้ที่คณะลูกขุนให้ไว้
ตัวอย่างของของเล่นที่ใช้ในการกำหนดเครดิตเรตของมนุษย์ โปรดดูรหัส Python ที่นี่ สคริปต์ต้องการให้คุณเป็นคณะกรรมการและประกอบด้วยรายชื่อเต็มของการสร้าง AI (และมนุษย์) ที่มีอยู่ล่วงหน้าในรหัส กลไกนี้จะระบุสมการเชื่อมโยงเชิงเส้นของรายชื่อเต็มที่เหมาะที่สุดสำหรับคำตอบของคณะกรรมการ ในกรณีนี้ คำตอบที่ชนะคือ 0.199 * คลอด คำตอบ + 0.801 * คำตอบของดีพซีค; สมการนี้เหมาะกว่าคำตอบของคณะกรรมการใดๆ ด้วย ค่าความสัมพันธ์เหล่านี้จะเป็นรางวัลที่ให้แก่ผู้ส่ง
ในตัวอย่าง "เอาชนะซอเรน" นี้ มุ่งหน้าที่เป็นแผนที่เป็นมนุษย์ เป็นที่สะท้อนในสองที่ โดยที่แรกทุกปัญหาใช้การตัดสินของมนุษย์คุณภาพสูง ถึงแม้ว่ายังใช้ลูกขุนเป็น "เจ้าหน้าที่เทคโนโลยี" ผู้ประเมินผล และที่สองมีกลไกโหวตที่ซ่อนอยู่ ทำให้การ "เอาชนะซอเรน" มีเป้าหมายที่ถูกต้อง (ไม่ใช่เช่น พยายามร่วมพันธ์กับซอเรน หรือมอบดินแดนทั้งหมดทางตะวันออกของแม่น้ำสำคัญให้เขาเป็นการทำอนันต์) ยังมีกรณีใช้การตัดสินของมนุษย์อื่น ๆ ที่ขจัดคุณค่าโดยตรงมากขึ้น เช่น จินตนาการถึงแพลตฟอร์มโซเชียลมีเดียที่แบ่งออก (หรือชุมชนย่อย) ซึ่งงานของลูกขุนคือทำเครื่องหมายโพสต์ฟอรัมที่ถูกเลือกแบบสุ่มว่าเป็นการปฏิบัติตามกฎของชุมชนหรือไม่
ในรูปแบบการตัดสินของมนุษย์ที่กำลังจะเกิดขึ้น มีตัวแปรบางรูปแบบที่เปิด
วิธีการสุ่มเลือกคือบทบาทของผู้ส่งรายชื่อทั้งหมดคือการให้คำตอบจำนวนมาก บทบาทของลูกขุนคือการให้คำตอบคุณภาพสูง เราต้องการเลือกลูกขุนในลักษณะนี้ และเลือกคำถามสำหรับลูกขุนโดยที่ความสามารถของโมเดลในการจับคู่คำตอบของลูกขุนเป็นที่สูงสุดที่สามารถแสดงให้เห็นถึงประสิทธิภาพโดยรวมของมัน ปัจจัยบางประการรวมถึง:
การแลกเปลี่ยนความเชี่ยวชาญกับอคติ: ลูกขุนที่มีทักษะมักจะเชี่ยวชาญในสาขาความเชี่ยวชาญของพวกเขาดังนั้นให้พวกเขาเลือกสิ่งที่จะให้คะแนนและคุณจะได้รับข้อมูลที่มีคุณภาพสูงขึ้น ในทางกลับกันการเลือกมากเกินไปอาจนําไปสู่อคติ (ลูกขุนชอบเนื้อหาจากสิ่งที่พวกเขาเชื่อมโยงด้วย) หรือจุดอ่อนในการสุ่มตัวอย่าง (เนื้อหาบางอย่างไม่ได้รับการจัดอันดับอย่างเป็นระบบ)
แฟนก์จัด哈ต: จะมีเนื้อหาที่พยายาม "เล่น" กลไกปัญญาประดิษฐ์ เช่น ผู้มีส่วนร่วมสร้างโค้ดที่ดูทรงพลังแต่ไร้ประโยชน์มากมาย นี่หมายถึงคณะผู้พิจารณาสามารถตรวจจับได้ แต่โมเดลปัญญาประดิษฐ์แบบคงที่จะไม่สามารถตรวจจับได้ถ้าไม่พยายามอย่างหนัก วิธีหนึ่งที่อาจจับได้ก็คือการเพิ่มกลไกท้าทาย โดยทางบุคคลสามารถทำเครื่องหมายกับพยายามเช่นนี้เพื่อให้แน่ใจว่าคณะผู้พิจารณาสามารถตัดสินใจเกี่ยวกับมัน (ซึ่งจะกระตุ้นนักพัฒนาปัญญาประดิษฐ์ให้ตระหนักรู้และจับมันได้อย่างถูกต้อง) ถ้าคณะผู้พิจารณาเห็นด้วย ผู้รายงานจะได้รับรางวัล แต่ถ้าคณะผู้พิจารณาไม่เห็นด้วย ก็ต้องจ่ายค่าปรับ
คุณใช้ฟังก์ชันการให้คะแนนแบบใด แนวคิดหนึ่งที่ใช้ในการนําร่อง Deep Grant ในปัจจุบันคือการถามลูกขุนว่า "A หรือ B ควรได้รับเครดิตมากขึ้นและเท่าไหร่?" ฟังก์ชันการให้คะแนนคือ score)x( = sum)(log)x(( - log(x[B]) - log(juror_ratio[A]) ** 2 สําหรับ (A, B, juror_ratio) in jury_answers): นั่นคือสําหรับคําตอบของคณะลูกขุนแต่ละคนจะถามว่าอัตราในรายการทั้งหมดอยู่ห่างจากอัตราที่ลูกขุนให้มาไกลแค่ไหนและเพิ่มสัดส่วนการลงโทษให้กับกําลังสองของระยะทาง (ในพื้นที่ลอการิทึม) นี่คือการแสดงให้เห็นว่ามีพื้นที่การออกแบบมากมายสําหรับฟังก์ชั่นการให้คะแนนและการเลือกฟังก์ชั่นการให้คะแนนนั้นเกี่ยวข้องกับการเลือกคําถามที่จะถามลูกขุนของคุณ
คุณใช้อย่างไรเพื่อตอบแทนผู้ส่งรายชื่อที่สมบูรณ์? ในกรณีที่ดีที่สุดคุณต้องการที่จะให้รางวัลที่ไม่ใช่ศูนย์แก่ผู้ร่วมมากมายอย่างสม่ำเสมอเพื่อหลีกเลี่ยงกลไกการสมคบ แต่คุณก็ต้องการให้คุณสมบัติต่อไปนี้: ผู้ร่วมไม่สามารถเพิ่มรางวัลโดยการส่งชุดคำตอบที่เหมือนกัน (หรือมีการแก้ไขเล็กน้อย) หลายครั้ง วิธีที่น่าจะได้ผลคือการคำนวณผลรวมเชิงเส้นของรายการที่สมบูรณ์ที่เหมาะสมที่สุดของลูกขุนและใช้ค่าความสัมพันธ์เดียวกันเหล่านี้ในการแบ่งปันรางวัล อาจจะมีวิธีอื่นๆ อีก
โดยรวมแล้วเป้าหมายคือการใช้กลไกการตัดสินของมนุษย์ที่ทราบว่าได้ผลลดอคติและยืนหยัดทดสอบเวลา (เช่นลองนึกภาพว่าโครงสร้างที่เป็นปฏิปักษ์ของระบบศาลรวมถึงสองฝ่ายในข้อพิพาทที่มีข้อมูลจํานวนมาก แต่มีอคติและผู้พิพากษาที่มีข้อมูลจํานวนน้อย แต่อาจไม่ลําเอียง) และใช้ตลาด AI แบบเปิดเป็นตัวทํานายที่มีความเที่ยงตรงสูงและต้นทุนต่ํามากของกลไกเหล่านี้ (คล้ายกับวิธีการทํางานของแบบจําลองการพยากรณ์ที่ยิ่งใหญ่ "การกลั่น" )
เงินทุนลึก
การจัดหาเงินทุนอย่างลึกซึ้งคือการใช้การวิเคราะห์ที่ผสมผสานของมนุษย์ในการแก้ปัญหาน้ำหนักบนกราฟ 'เครดิตของ X มีกี่เปอร์เซ็นต์เป็นของ Y?'
วิธีที่ง่ายที่สุดคือใช้ตัวอย่างเพื่ออธิบายโดยตรง:
ผลลัพธ์ตัวอย่างการจัดหาเงินระดับสอง: ที่มาของความคิดของอีเธอเรียม โปรดดูรหัส Python ที่นี่
เป้าหมายที่นี่คือการกระจายเครดิตสําหรับการมีส่วนร่วมทางปรัชญาให้กับ Ethereum ลองดูตัวอย่าง:
การจำลองรอบทุนลึกที่แสดงที่นี่มอบ 20.5% ให้กับการเคลื่อนไหวคริปโตปังก์ และ 9.2% ให้กับนิยมเทคโนโลยี
ในทุกโหนดคุณจะถูกถามคำถามหนึ่ง: มันเป็นงานเขียนขึ้นใหม่ในระดับใด (ดังนั้นมันควรได้รับเครดิตเพื่อตนเอง) และเป็นการรวมกันของผลกระทบจากบนสายอย่างไร? สำหรับการเคลื่อนไหวที่เกี่ยวกับรหัสลับ มี 40% คือใหม่ และ 60% คือขึ้นอยู่กับไอเท็ม
จากนั้นคุณสามารถดูผลกระทบต้นน้ําของโหนดเหล่านี้: รัฐบาลเสรีนิยมและอนาธิปไตยได้รับ 17.3% ของเครดิตสําหรับขบวนการไซเฟอร์พังก์ แต่เพียง 5% สําหรับประชาธิปไตยทางตรงในสวิตเซอร์แลนด์
อย่างไรก็ตาม โครงสร้างรัฐบาลขนาดเล็กแบบลิเบอรัลิสต์และการปกครองที่ไม่มีระบบก็ได้สร้างแรงบันดาลใจให้แนวทฤษฎีเงินของบิทคอยน์ด้วย ดังนั้น มันมีผลกระทบต่อแนวทฤษฎีของอีเธอเรียผ่านทางสองทาง
เพื่อคำนวณส่วนแบ่งของอนุรักษ์การปกครองเล็กและอนุรักษ์การปกครองปราศจากรัฐบาลต่อเอเธอเรียม คุณต้องคูณขอบเส้นในแต่ละเส้นทางและรวมเส้นทาง: 0.205 * 0.6 * 0.173 + 0.195 * 0.648 * 0.201 เท่ากับ 0.0466 ดังนั้น หากคุณต้องบริจาค 100 ดอลลาร์เพื่อตอบแทนผู้ทุ่มเทใจให้กับวิทยาศาสตร์ของเอเธอเรียมทุกคน ตามการจำลองรอบทุนลึก นักล้มละลายทางอนุรักษ์การปกครองเล็กและอนุรักษ์การปกครองปราศจากรัฐบาลจะได้รับ 4.66 ดอลลาร์
วิธีการนี้มีวัตถุประสงค์เพื่อนําไปใช้กับพื้นที่ที่งานสร้างขึ้นจากงานก่อนหน้าและมีความชัดเจนของโครงสร้างในระดับสูง Academia (คิดว่า: กราฟการอ้างอิง) และซอฟต์แวร์โอเพ่นซอร์ส (คิดว่า: การพึ่งพาห้องสมุดและส้อม) เป็นสองตัวอย่างตามธรรมชาติ
เป้าหมายของระบบการระดมทุนเชิงลึกที่ทํางานได้ดีคือการสร้างและรักษากราฟทั่วโลกที่ผู้ให้ทุนที่สนใจสนับสนุนโครงการใดโครงการหนึ่งจะสามารถส่งเงินไปยังที่อยู่ที่เป็นตัวแทนของโหนดนั้นและกองทุนจะเผยแพร่ไปยังการพึ่งพาของพวกเขาโดยอัตโนมัติ (และเกิดซ้ํากับการพึ่งพาของพวกเขา ฯลฯ ) ตามน้ําหนักของขอบของกราฟ
คุณสามารถจินตนาการถึงโปรโตคอลแบบกระจายอํานาจที่ใช้อุปกรณ์การระดมทุนเชิงลึกในตัวเพื่อออกโทเค็น: การกํากับดูแลแบบกระจายอํานาจภายในโปรโตคอลจะเลือกคณะลูกขุนซึ่งจะเรียกใช้กลไกการระดมทุนแบบลึกเนื่องจากโปรโตคอลจะออกโทเค็นโดยอัตโนมัติและฝากไว้ในโหนดที่สอดคล้องกับตัวเอง ด้วยการทําเช่นนั้นโปรโตคอลจะให้รางวัลแก่ผู้มีส่วนร่วมทั้งทางตรงและทางอ้อมโดยทางโปรแกรมซึ่งชวนให้นึกถึงวิธีที่ Bitcoin หรือ Ethereum block ให้รางวัลแก่ผู้มีส่วนร่วมประเภทใดประเภทหนึ่ง (นักขุด) โดยมีอิทธิพลต่อน้ําหนักของขอบคณะลูกขุนสามารถกําหนดประเภทของการมีส่วนร่วมที่มันมีค่าอย่างต่อเนื่อง กลไกนี้สามารถใช้เป็นทางเลือกที่กระจายอํานาจและยั่งยืนในระยะยาวสําหรับการขุดการขายหรือ airdrops ครั้งเดียว
เพิ่มความเป็นส่วนตัว
โดยทั่วไปแล้ว การตัดสินใจที่ถูกต้องเกี่ยวกับปัญหาในตัวอย่างที่กล่าวถึงต้องการการเข้าถึงข้อมูลส่วนตัว เช่น บันทึกการสนทนาภายในขององค์กร ข้อมูลที่สมาชิกชุมชนส่งเข้ามาโดยลับ ความได้เปรียบของการ "ใช้ AI เพียงตัวเดียว" โดยเฉพาะอย่างยิ่งในสภาพแวดล้อมขนาดเล็ก คือ การทำให้ AI ตัวหนึ่งสามารถเข้าถึงข้อมูลได้ง่ายกว่าการเปิดเผยข้อมูลแก่ทุกคน
เพื่อให้มนุษย์ที่ได้รับการกลั่นกรองหรือสนับสนุนที่ลึกซึ้งสามารถมีผล สามารถพยามใช้เทคโนโลยีการเข้ารหัสเพื่อให้ AI สามารถเข้าถึงข้อมูลส่วนตัวอย่างปลอดภัย ความคิดนี้คือการใช้การคำนวณหลายฝ่าย (MPC) การเข้ารหัสที่เป็นฟังก์ชันครบถ้วน )FHE( สภาพแวดล้อมการดำเนินการที่น่าเชื่อถือ )TEE( หรือกลไกที่คล้ายกันเพื่อให้ข้อมูลส่วนตัว แต่ถูกจำกัดไว้เฉพาะสิ่งเดียวที่เป็นผลลัพธ์โดยตรงที่ถูกนำเข้าไปในกลไก
หากคุณทําเช่นนั้นคุณจะต้อง จํากัด ชุดของกลไกให้กับโมเดล AI (ไม่ใช่มนุษย์หรือ AI + การรวมกันของมนุษย์เพราะคุณไม่สามารถทําให้มนุษย์เห็นข้อมูลได้) และเฉพาะเจาะจงกับโมเดลที่ทํางานบนพื้นผิวเฉพาะบางอย่าง (เช่น MPC, FHE, ฮาร์ดแวร์ที่เชื่อถือได้) หนึ่งในทิศทางการวิจัยหลักคือการหารุ่นปฏิบัติที่มีประสิทธิภาพและมีความหมายเพียงพอในอนาคตอันใกล้
ข้อดีของการออกแบบเครื่องยนต์ + พวงมาลัย
การออกแบบแบบนี้มีประโยชน์ที่น่าตื่นเต้นมากมาย ในขณะนี้ ประโยชน์ที่สำคัญที่สุดคือมันช่วยให้สามารถสร้าง DAO ซึ่งทำให้มนุษย์ผู้มีสิทธิ์โหวตควบคุมทิศทาง โดยที่พวกเขาไม่ต้องรับมือกับการตัดสินใจมากมาย มันทำให้เกิดสมดุล ทุกคนไม่จำเป็นต้องตัดสินใจ N ครั้ง แต่พวกเขามีอำนาจที่ไม่ได้แค่ตัดสินใจเพียงหนึ่งครั้ง (แบบที่มักจะทำงาน) แต่ยังสามารถเริ่มต้นความชอบที่ซับซ้อนที่มันยากที่จะแสดงโดยตรง
นอกจากนี้กลไกดังกล่าวดูเหมือนจะมีลักษณะเรียบแรงจูงใจ สิ่งที่ฉันหมายถึงโดย "การปรับแรงจูงใจให้เรียบ" นี่คือการรวมกันของสองปัจจัย:
การแพร่กระจาย: การกระทำเดียวใดๆ ที่ระบบโหวตนำมาจะไม่ส่งผลกระทบอย่างมากต่อผู้เข้าร่วมใดๆ
ความสับสน: การตัดสินใจโหวตและวิธีที่มันส่งผลต่อประโยชน์ของผู้เข้าร่วมมีความซับซ้อนและยากต่อการคำนวณ
คําว่า obfuscation และ diffusion ในที่นี้นํามาจากการเข้ารหัสซึ่งเป็นคุณสมบัติหลักของความปลอดภัยของการเข้ารหัสและฟังก์ชันแฮช
ตัวอย่างที่ดีของการสร้างแรงจูงใจในโลกแห่งความเป็นจริงในปัจจุบันคือหลักนิติธรรม: แทนที่จะดําเนินการเป็นประจําในรูปแบบของ "200 ล้านดอลลาร์สําหรับ บริษัท ของอลิซ", "100 ล้านดอลลาร์สําหรับ บริษัท ของบ๊อบ" เป็นประจําด้านบนของรัฐบาลผ่านกฎที่ออกแบบมาเพื่อใช้กับผู้เข้าร่วมจํานวนมากอย่างเท่าเทียมกันซึ่งจะถูกตีความโดยนักแสดงอีกกลุ่มหนึ่ง เมื่อวิธีการนี้ได้ผลประโยชน์คือช่วยลดผลประโยชน์จากการติดสินบนและการทุจริตในรูปแบบอื่น ๆ ได้อย่างมาก เมื่อถูกละเมิดซึ่งมักเกิดขึ้นในทางปฏิบัติปัญหาเหล่านี้จะถูกขยายอย่างรวดเร็วอย่างมาก
เห็นได้ชัดว่า AI จะเป็นส่วนสําคัญของอนาคตและจะกลายเป็นส่วนสําคัญของการกํากับดูแลในอนาคตอย่างหลีกเลี่ยงไม่ได้ อย่างไรก็ตามหากคุณเกี่ยวข้องกับ AI ในการกํากับดูแลมีความเสี่ยงที่เห็นได้ชัด: AI มีอคติอาจถูกทําลายโดยเจตนาในระหว่างการฝึกอบรมและเทคโนโลยี AI กําลังพัฒนาอย่างรวดเร็วจน "การทําให้ AI อยู่ในอํานาจ" อาจหมายถึง "การรับผิดชอบในการอัพเกรด AI" การตัดสินของมนุษย์ที่กลั่นออกมาเป็นหนทางทางเลือกที่ก้าวไปข้างหน้าทําให้เราสามารถควบคุมพลังของ AI ในลักษณะที่เปิดกว้างและตลาดเสรีในขณะที่ยังคงรักษาระบอบประชาธิปไตยที่ควบคุมโดยมนุษย์
ขอบคุณพิเศษ Devansh Mehta และ Davide Crapis และ Julian Zawistowski สำหรับคำติชมและการตรวจสอบ และ Tina Zhen และ Shaw Walters และผู้อื่น ๆ สำหรับการสนทนา