العنوان الأصلي: "الذكاء الاصطناعي كمحرك ، البشر كعجلة القيادة"
كتب: فيتاليك، مؤسس إيثريوم
ترجمة: بايشوى، الاقتصاد الذهبي
إذا سألت الناس عن جوانب الهيكل الديمقراطي التي يحبونها، سواء كان ذلك في الحكومة أو مكان العمل أو DAO المعتمد على تقنية سلسلة الكتل، فستسمع غالبًا نفس الحجج: إنها تجنب التركيز الزائد للسلطة، وتوفر ضمانات قوية للمستخدمين، لأنه لا يمكن لأي شخص تغيير اتجاه النظام بمفرده، ويمكنها اتخاذ قرارات ذات جودة أعلى من خلال جمع آراء وحكم العديد من الأشخاص.
إذا سألت الناس عن الجوانب التي لا يحبونها في هيكل الديمقراطية، فإنهم في كثير من الأحيان يقدمون نفس الشكاوى: الناخبون العاديون ليسوا كافياً ذوي خبرة، لأن كل ناخب لديه فرصة صغيرة جداً للتأثير في النتائج، ونادراً ما يقوم الناخبون بالتفكير عالي الجودة في صنع القرار، وكثيراً ما تحدث منخفضة المشاركة (مما يجعل النظام سهل الاختراق) أو التمركز الفعلي، لأن الجميع يثق ويستنسخ آراء بعض الأشخاص ذوي التأثير.
هدف هذه المقالة هو استكشاف نموذج قد يمكن استخدامه بواسطة الذكاء الاصطناعي لاستفادتنا من الهياكل الديمقراطية دون تأثير سلبي. "الذكاء الاصطناعي هو المحرك، والإنسان هو عجلة القيادة". يقدم الإنسان كمية قليلة من المعلومات للنظام، قد تكون فقط بضع مئات، لكنها مدروسة جيدًا وذات جودة عالية. يعتبر الذكاء الاصطناعي هذه البيانات على أنها "دالة هدف" ويتخذ قرارات بكميات كبيرة بلا كلل لتحقيق هذه الأهداف. وبشكل خاص، سيستكشف هذا المقال مشكلة مثيرة للاهتمام: هل يمكننا تحقيق ذلك دون وضع الذكاء الاصطناعي الفردي في مركز الاهتمام، بل من خلال سوق مفتوح تنافسي يمكن لأي ذكاء اصطناعي (أو هجين إنسان-آلة) المشاركة فيه بحرية؟
الفهرس
لماذا لا ندع الذكاء الاصطناعي يتولى المسؤولية؟
فوتارشي
تبخير قوة القضاء البشري
تمويل عميق
زيادة الخصوصية
الفوائد من تصميم المحرك + عجلة القيادة
لماذا لا ندع الذكاء الاصطناعي يتولى المسؤولية؟
أسهل طريقة لتوصيل التفضيلات البشرية بآلية قائمة على الذكاء الاصطناعي هي إنشاء نموذج الذكاء الاصطناعي وجعل البشر بطريقة ما يغذون تفضيلاتهم فيه. هناك طريقة سهلة للقيام بذلك: يمكنك ببساطة وضع ملف نصي يحتوي على قائمة بتعليمات الأشخاص في موجه النظام. يمكنك بعد ذلك استخدام أحد "أطر عمل الذكاء الاصطناعي الوكيل" العديدة لمنح الذكاء الاصطناعي إمكانية الوصول إلى الإنترنت ، ومنحها مفاتيح أصول مؤسستك وملفات تعريف الوسائط الاجتماعية ، وبذلك تكون قد انتهيت.
بعد عدة تطورات، قد يكون هذا كافيا لتلبية احتياجات العديد من حالات الاستخدام، وأتوقع تماما في المستقبل القريب أن نرى العديد من الهياكل التي تشمل تعليمات مجموعات القراءة الذكية (حتى قراءة الدردشات في الوقت الفعلي) واتخاذ إجراءات.
هيكل غير مثالي كآلية للحوكمة المؤسسية على المدى الطويل. إحدى الخصائص القيمة التي يجب أن تمتلكها المؤسسات على المدى الطويل هي النزاهة الموثوق بها. في منشوري الذي أقدم فيه هذا المفهوم، قمت بتحديد أربع خصائص قيمة للنزاهة الموثوق بها:
لا تكتب أشخاصًا محددين أو نتائج محددة في الآلية
تنفيذ مفتوح وقابل للتحقق علناً
البقاء بسيطا
لا تغيره كثيرا
LLM (أو وكيل الذكاء الاصطناعي) يلبي 0/4. يترك النموذج لا مفر من ترميز الكثير من التفضيلات البشرية والنتائج المحددة أثناء عملية تدريبه. في بعض الأحيان ، يمكن أن يؤدي هذا إلى توجهات مفاجئة للذكاء الاصطناعي ، على سبيل المثال ، انظر إلى الدراسة الأخيرة التي تشير إلى أن أولويات LLM الرئيسية تميل إلى حياة باكستان بدلاً من حياة الولايات المتحدة (!!). يمكن أن يكون مفتوح الوزن ، ولكن هذا ليس ما يعرف بالمصدر المفتوح. نحن حقًا لا نعرف ما الذي يخفيه النموذج في عمقه. إنها عكس البساطة: تعقيد Kolmogorov لـ LLM يصل إلى مئات المليارات من البتات ، ما يعادل تقريبًا مجموع جميع القوانين الأمريكية (فيدرالية + ولاية + محلية). وبسبب التطور السريع في الذكاء الاصطناعي ، يجب عليك تغييره كل ثلاثة أشهر.
لهذا السبب ، هناك طريقة أخرى أفضل استكشافها في العديد من حالات الاستخدام وهي أن يكون لديك ميكانيكي بسيط هو قواعد اللعبة الذكاء الاصطناعي يكون اللاعب. هذه البصيرة هي التي تجعل السوق فعالة للغاية: القواعد عبارة عن نظام غبي نسبيا لحقوق الملكية ، ويتم البت في القضايا الهامشية من قبل نظام المحاكم الذي يتراكم ببطء ويعدل السوابق ، وكل المعلومات الاستخباراتية تأتي من رواد الأعمال الذين يعملون "على الهامش".
يمكن أن يكون "اللاعب" الواحد LLMs ، ومجموعات من LLMs التي تتفاعل مع بعضها البعض وتستدعي خدمات الإنترنت المختلفة ، ومجموعات الذكاء الاصطناعي + البشرية المختلفة ، والعديد من التركيبات الأخرى ؛ كمصمم آلية ، لا تحتاج إلى معرفة. الهدف المثالي هو الحصول على آلية يمكن تشغيلها تلقائيا - إذا كان الهدف من هذه الآلية هو اختيار ما يجب تمويله ، فيجب أن يكون مثل مكافأة كتلة Bitcoin أو Ethereum.
فوائد هذه الطريقة هي:
يتجنب إدراج أي نموذج فردي في الآلية؛ بدلاً من ذلك، ستحصل على سوق مفتوح مكون من العديد من المشاركين والهياكل المختلفة، لديها جميعها تحيزاتها الخاصة. النماذج المفتوحة، النماذج المغلقة، الوكلاء الجماعي، الهجين البشري+الذكاء الاصطناعي، الروبوتات، وحتى القردة غير المحدودة جميعها ألعاب عادلة؛ الآلية لن تميز أي شخص.
الآلية مفتوحة المصدر. على الرغم من أن اللاعب ليس كذلك ، إلا أن اللعبة مفتوحة المصدر - وهي نموذج تم فهمه جيدا إلى حد ما (على سبيل المثال ، تعمل الأحزاب السياسية والأسواق بهذه الطريقة)
هذا الآلية بسيطة للغاية، لذلك فإن مصمم الآلية قد قلل من تضمين تحيزاته الشخصية في التصميم
لن تتغير الآلية ، حتى لو كانت بنية المشاركين الأساسيين بحاجة إلى إعادة تصميم كل ثلاثة أشهر من الآن وحتى التفرد.
يهدف آلية التوجيه إلى عكس أهداف المشاركين بدقة. إنها تتطلب كمية قليلة من المعلومات فقط، ولكن يجب أن تكون عالية الجودة.
يمكنك اعتبار أن هذا الآلية تستفيد من عدم التماثل بين تقديم الإجابة والتحقق منها. هذا مشابه لصعوبة حل لعبة سودوكو ولكن سهولة التحقق مما إذا كانت الحلول صحيحة. يمكنك (i) إنشاء سوق مفتوح يجعل اللاعبين يعملون كـ "حلال الألغاز"، ثم (ii) الحفاظ على آلية تعمل بواسطة البشر، تنفذ مهام التحقق من الحلول المقدمة بشكل أسهل بكثير.
فوتارشي
اقترحت Futarchy في البداية بواسطة روبن هانسون، وتعني "التصويت من أجل القيمة، لكن الرهان على المعتقد". يختار آلية التصويت مجموعة من الأهداف (يمكن أن تكون أي أهداف، ولكن الشرط الأساسي هو أن تكون قابلة للقياس)، ثم يجمعها في قياس M. عندما تحتاج إلى اتخاذ قرار (لسهولة الفهم، نفترض أنها نعم / لا)، ستقوم بإعداد سوق شرطي: تطلب من الناس الرهان على (i) ما إذا كان سيختارون نعم أو لا، (ii) إذا كانوا يختارون نعم، فإن قيمة M، وإلا فهي صفر، (iii) إذا اختاروا لا، فإن قيمة M، وإلا فهي صفر. بوجود هذه الثلاث متغيرات، يمكنك تحديد ما إذا كان السوق يعتقد أن نعم أو لا هما الأنسب لقيمة M.
"سعر سهم الشركة" (أو ، في حالة العملة المشفرة ، سعر الرمز المميز) هو المقياس الأكثر شيوعا لأنه من السهل فهمه وقياسه ، ولكن الآلية يمكن أن تدعم مجموعة متنوعة من المقاييس: المستخدمون النشطون شهريا ، ومتوسط السعادة المبلغ عنها ذاتيا لمجموعات معينة ، وبعض المقاييس اللامركزية القابلة للقياس الكمي ، وما إلى ذلك.
كانت Futarchy في الأصل اختراعًا قبل عصر الذكاء الاصطناعي. ومع ذلك، يتماشى Futarchy بشكل طبيعي جدًا مع النمط الذي وصف في الفقرة السابقة "حلو القضايا المعقدة، وتحقّق منها ببساطة"، ويمكن للتجار في Futarchy أن يكونوا أيضًا ذكاء اصطناعي (أو تركيبة بين الإنسان والذكاء الاصطناعي). دور "الحلّال" (تجار سوق التنبؤ) هو تحديد كيف ستؤثر خطط كل اقتراح على قيمة المؤشرات المستقبلية. هذا أمر صعب. إذا كان الحلال على حق، فإنهم سيحققون أرباحًا، وإذا كانوا على خطأ، فإنهم سيتكبدون خسائر. يكفي للتأكد (الأشخاص الذين يصوتون على المؤشرات، إذا لاحظوا أن المؤشر تم "تلاعب" به أو أصبح قديمًا، فسيعدلون المؤشر، ويحددون قيمة المؤشر الفعلية في وقت ما في المستقبل) أن يجيبوا على سؤال أبسط "ما هي قيمة هذا المؤشر الآن؟"
تبخير قوة الحكم البشرية
تقطير الحكم البشري هو فئة من الآليات التي تعمل على النحو التالي. هناك الكثير من الأسئلة (فكر: 1 مليون) التي تحتاج إلى إجابة. تشمل الأمثلة الطبيعية ما يلي:
كم يجب أن يحصل كل شخص في هذه القائمة على الشرف لمساهمته في مشروع أو مهمة معينة؟
أي من هذه التعليقات تنتهك قواعد منصة وسائل التواصل الاجتماعي (أو المجتمع الفرعي)؟
أي من هذه العناوين الخاصة بالإيثيريوم المعطاة تمثل أشخاصًا حقيقيين وفريدين؟
ما هي الكائنات الفيزيائية التي تسهم بشكل إيجابي أو سلبي في جماليات بيئتها؟
لديك فريق يمكنه الرد على هذه الأسئلة، ولكن الثمن هو أن تنفق الكثير من الجهد في كل إجابة. تطلب فقط من الفريق الرد على عدد قليل من الأسئلة (على سبيل المثال، إذا كان القائمة الإجمالية تحتوي على مليون عنصر، فقد يرد الفريق فقط على 100 عنصر). يمكنك حتى طرح أسئلة غير مباشرة على الفريق: لا تسأل "كم يجب أن تحصل آليس على نسبة مئوية من الائتمان الإجمالي؟"، بل اسأل "هل ينبغي لآليس أو بوب الحصول على المزيد من الائتمان، وبمقدار كم؟". عند تصميم آلية هيئة المحلفين، يمكنك إعادة استخدام آليات عالم الواقع التي تم اختبارها لفترة طويلة، مثل لجنة التمويل، المحكمة (لتحديد قيمة الحكم)، والتقييم، وبالطبع، يمكن لمشاركي هيئة المحلفين استخدام أدوات بحث الذكاء الاصطناعي الجديدة لمساعدتهم في إيجاد الإجابات.
ثم، يُسمح لأي شخص بتقديم قائمة بالإجابات الرقمية على مجموعة الأسئلة بأكملها (على سبيل المثال، تقديم تقديرات لقيمة الائتمان التي يجب أن يحصل عليها كل مشارك في القائمة الكاملة). يُشجع المشاركين على استخدام الذكاء الاصطناعي لإتمام هذه المهمة، ولكن يُسمح لهم باستخدام أي تقنيات: ذكاء اصطناعي، مزيج بين الإنسان والآلة، ذكاء اصطناعي قادر على الوصول إلى البحث في الإنترنت وتوظيف البشر أو العمالة الاصطناعية بشكل مستقل، وغيرها. (
بمجرد أن يقدم كل من مزود القائمة الكاملة والمحلف إجاباتهما ، يتم التحقق من القائمة الكاملة مقابل إجابات هيئة المحلفين ، ويتم استخدام مجموعة معينة من القائمة الكاملة الأكثر توافقا مع إجابات هيئة المحلفين كإجابة نهائية.
تختلف آلية الحكم البشري للتقطير عن آلية futarchy ، ولكن هناك بعض أوجه التشابه المهمة:
في futarchy، سيقوم "حكماء الحساب" بعمل توقعات، والبيانات الحقيقية التي تعتمد توقعاتهم عليها (والتي تستخدم لمكافأة أو معاقبة حكماء الحساب) هي قيم المؤشر التي يخرجها جهاز النبوءة الذي يعمل بواسطة هيئة مراقبة.
في تقييم البشر ، سيقدم 'حاسب الحل' إجابات على أسئلة كثيرة ، ويعتمد تنبؤاته على 'البيانات الحقيقية' التي تمثل جزءًا صغيرًا من أجوبة ذات جودة عالية تقدمها هيئة المحلفين.
مثال لعبة اللعب التي تقوم على تقدير البشر لتوزيع الائتمان ، يرجى الرجوع إلى رمز Python هنا. يتطلب البرنامج النصي منك أن تكون عضوًا في هيئة المحلفين ويحتوي على قائمة كاملة مُدرجة مسبقًا من التوليد الذكي (والبشري) التي تم تضمينها في الكود. يتعرف هذا الآلية على التركيب الخطي للقائمة الكاملة التي تناسب إجابة هيئة المحلفين بشكل أفضل. في هذه الحالة ، الجمع الفائز هو 0.199 * إجابة كلود + 0.801 * إجابة ديبسيك؛ هذا الجمع يتوافق أكثر مع إجابة هيئة المحلفين من أي نموذج فردي. ستكون هذه القيم أيضًا مكافأة للمرسل.
في هذا المثال على "هزيمة سورون" ، يتجلى جانب "الرجل كعجلة قيادة" في مكانين. أولا ، يتم تطبيق حكم بشري عالي الجودة على كل سؤال ، على الرغم من أن هذا لا يزال يستخدم هيئة المحلفين كمقيم أداء "تكنوقراطي". ثانيا، هناك آلية تصويت ضمنية تقرر ما إذا كانت "هزيمة سورون" هي الهدف الصحيح (على عكس محاولة تشكيل تحالف مع سورون على سبيل المثال، أو منحه كل الأراضي الواقعة شرق نهر رئيسي معين كتنازل للسلام). هناك حالات استخدام أخرى مقطرة للحكم البشري حيث يتم تنفيذ مهمة هيئة المحلفين بشكل مباشر مع القيم: تخيل ، على سبيل المثال ، منصة وسائط اجتماعية لامركزية (أو مجتمع فرعي) حيث تتمثل وظيفة هيئة المحلفين في وضع علامة على مشاركات المنتدى المختارة عشوائيا على أنها تمتثل أو لا تتبع قواعد المجتمع.
في سياق تبخير النماذج البشرية للحكم، هناك بعض المتغيرات المفتوحة:
كيفية أخذ عينات؟ دور مقدمي القوائم الكاملة هو توفير الإجابات بكميات كبيرة؛ دور المحكمين هو توفير إجابات عالية الجودة. نحتاج إلى اختيار المحكمين بهذه الطريقة واختيار الأسئلة للمحكمين بحيث يظهر قدرتهم على تطابق إجابات المحكمين بأقصى قدر ممكن من أداءهم العام. بعض العوامل التي يجب مراعاتها تشمل:
توازن بين المعرفة المهنية والتحيز: يعمل المحلفون الماهرون عادة في مجالاتهم المهنية المخصصة، لذلك عند اختيارهم للمحتوى الذي يجب تقييمه، ستحصل على مدخلات عالية الجودة. من ناحية أخرى، قد يؤدي الاختيار الزائد إلى التحيز (حيث يميل المحلفون إلى المحتوى الذي يرتبط بأشخاص يعرفونهم) أو نقاط الضعف في العينة (حيث لا يتم تقييم بعض المحتويات بشكل منهجي)
فان جودهارت: ستكون هناك محتويات تحاول "اللعب" بآلية الذكاء الاصطناعي، على سبيل المثال، ينشئ المساهمون العديد من الشفرات التي تبدو مثيرة للانطباع ولكنها غير مفيدة. هذا يعني أن هيئة التحكيم يمكنها اكتشاف ذلك، ولكن النماذج الثابتة للذكاء الاصطناعي لن تكتشف ذلك ما لم يبذلوا جهدًا لذلك. إحدى الطرق المحتملة للتعامل مع هذا السلوك هي إضافة آلية تحدي، حيث يمكن للأفراد وضع علامة على محاولات من هذا القبيل، لضمان أن يتم تقييمها من قبل هيئة التحكيم (مما يشجع مطوري الذكاء الاصطناعي على ضمان اصطيادها بشكل صحيح). إذا وافقت هيئة التحكيم، سيحصل الشخص الذي أبلغ على جائزة، وإذا لم توافق هيئة التحكيم، سيتعين عليه دفع غرامة.
ما نوع الدالة التي تستخدمها؟ فكرة واحدة مستخدمة في نقاط بداية التمويل العميق حاليًا هي طلب من المحكمين إذا كان ينبغي أن يحصل "أ" أو "ب" على المزيد من الائتمان وكم؟ تكون الدالة التقييمية score)x( = sum((log[B]x) - log(x[A] - log)juror_ratio() ** 2 لكل من )A، B، juror_ratio( في jury_answers): أي أنه سيطلب من كل إجابة للجنة المحلفين معرفة مدى اختلاف النسبة المقدمة من اللائحة الكاملة عن تلك التي قدمها المحكمون وإضافة عقوبة تتناسب مع التباين مربعيًا (في الفضاء اللوغاريتمي). هذا من أجل إظهار أن مجال تصميم دالة التقييم غني جدًا، واختيار الدالة التقييمية يعتمد على الأسئلة التي تطرحها للمحكمين.
كيف تكافئ مقدمي القائمة الكاملة؟ في الحالة المثالية، ترغب في منح مكافآت غير صفرية لعدة مشاركين بانتظام لتجنب الآلية الاحتكارية، لكنك ترغب أيضًا في تلبية الخصائص التالية: لا يمكن للمشاركين زيادة المكافآت عن طريق تقديم مجموعة إجابات متطابقة (أو معدلة قليلا) مرارًا وتكرارًا. طريقة واحدة واعدة هي حساب تركيبة خطية للقائمة الكاملة للأجوبة الأكثر ملاءمة للهيئة القضائية (معاملات غير سالبة ومجموعها يساوي 1) مباشرة واستخدام هذه المعاملات نفسها لتقسيم المكافآت. قد تكون هناك طرق أخرى.
بشكل عام ، الهدف هو اتخاذ آليات الحكم البشري المعروفة بأنها تعمل ، ويتم تقليلها إلى الحد الأدنى من التحيز ، وقد صمدت أمام اختبار الزمن (على سبيل المثال ، تخيل كيف أن الهيكل العدائي لنظام المحاكم يشمل طرفين في نزاع لديهما الكثير من المعلومات ولكنهما متحيزان ، وقاض لديه كمية صغيرة من المعلومات ولكن قد لا يكون متحيزا) ، واستخدام سوق الذكاء الاصطناعي مفتوح كمؤشر عالي الدقة ومنخفض التكلفة للغاية لهذه الآليات (على غرار الطريقة التي يعمل بها نموذج النبوءة الكبرى "التقطير").
تمويل عميق (deep funding)
تمثل التمويل العميق تطبيق الحكم الذي تم تقطيره من قبل البشر على مشكلة توزيع الأوزان على الحدود في الرسم التخطيطي "كم نسبة ائتمان X تنتمي إلى Y؟"
أبسط طريقة هي شرح مباشر باستخدام مثال:
ناتج مثال التمويل العميق المكون من مستويين: أصول أفكار Ethereum. تحقق من كود بايثون هنا.
هنا الهدف هو تخصيص الشرف للمساهمات الفلسفية في إثيريوم. دعونا نلقي نظرة على مثال:
تعطي جولة التمويل العميق المحاكية الموضحة هنا 20.5٪ ائتمانا لحركة cypherpunk و 9.2٪ للتقدم التكنولوجي.
في كل نقطة، ستواجه سؤالًا: إلى أي حد هو مساهمة أصلية (وبالتالي تستحق الحصول على الفضل)، وإلى أي حد هو إعادة ترتيب لتأثيرات مصدرية أخرى؟ بالنسبة لحركة البنك السري، فإن 40% جديد و60% تعتمد على الأصول.
يمكنك بعد ذلك إلقاء نظرة على تأثير هذه العقد في المنبع: حصلت الحكومة الصغيرة الليبرالية والأناركية على 17.3٪ من الفضل في حركة cypherpunk ، ولكن 5٪ فقط للديمقراطية المباشرة في سويسرا.
ولكن يرجى ملاحظة أن الحكومة الصغيرة الليبرالية وعدم وجود الحكومة قد ألهما فلسفة العملة البيتكوين، وبالتالي فإنها تؤثر على فلسفة الإيثيريوم عبر طريقتين.
لحساب إجمالي حصة مساهمة الحكومة الصغيرة الليبرالية والأناركية في Ethereum ، تحتاج إلى ضرب الحواف على كل مسار ثم إضافة المسارات معا: 0.205 \ * 0.6 \ * 0.173 + 0.195 \ * 0.648 \ * 0.201 ~= 0.0466. لذا ، إذا كان عليك التبرع بمبلغ 100 دولار لمكافأة جميع أولئك الذين ساهموا في فلسفة Ethereum ، فإن الحكومات الصغيرة الليبرالية والفوضويين سيحصلون على 4.66 دولار وفقا لجولة التمويل العميق المحاكية هذه.
هذه الطريقة مصممة لتكون مناسبة لأولئك الذين يعملون على أساس العمل السابق والذين لديهم هيكلية واضحة تمامًا في مجالهم. الأكاديميين (فكر في: الاستشهاد بالرسوم) والبرمجيات مفتوحة المصدر (فكر في: الاعتمادات الخاصة بالمكتبات والفروع) هما مثالان طبيعيان.
يهدف نظام تمويل العمق الذي يعمل بشكل جيد إلى إنشاء وصيانة رسم بياني عالمي، حيث يمكن لأي مموّل مهتم بدعم مشروع معين إرسال الأموال إلى عنوان يمثل هذا العقد، وستنتقل الأموال تلقائيًا وفقًا لأوزان حواف الرسم البياني إلى التبعيات الخاصة بها (وبشكل متكرر إلى تبعياتها وما إلى ذلك).
يمكنك تخيل بروتوكول غير مركزي يستخدم جهاز تمويل عميق مدمج لإصدار رموزه: سيختار الحكم اللامركزي داخل البروتوكول هيئة محكمة، وستقوم الهيئة بتشغيل آلية التمويل العميق، لأن البروتوكول سيقوم بإصدار الرموز تلقائيًا وسيقوم بتخزينها في العقد المقابل له. من خلال ذلك، يقوم البروتوكول بمكافأة جميع المساهمين المباشرين وغير المباشرين له بطريقة برمجية، مما يذكرنا بكيفية مكافأة كتلة بيتكوين أو إثريوم لنوع معين من المساهمين (المنقبين). من خلال التأثير على وزن الحافة، يمكن لهيئة المحكمة تحديد أنواع المساهمات التي تولي اهتماما مستمرا بها. يمكن استخدام هذه الآلية كبديل لعمليات التعدين أو البيع أو التوزيع الجوي لفترة زمنية واحدة، وهي بديل غير مركزي ومستدام على المدى الطويل.
زيادة الخصوصية
عادةً ما يتطلب التحكم الصحيح في المشكلة المذكورة في المثال أعلاه القدرة على الوصول إلى المعلومات الخاصة: سجلات المحادثات الداخلية للمنظمة، والمعلومات التي تقدمها أعضاء المجتمع سرًا. أحد فوائد "استخدام AI واحد فقط"، خاصة في البيئات الصغيرة، هو أن يكون من الأسهل لل AI الوصول إلى المعلومات بدلاً من نشر المعلومات للجميع.
لكي يعمل الحكم البشري للتقطير أو التمويل العميق في هذه الحالات ، يمكننا محاولة استخدام التشفير لمنح الذكاء الاصطناعي الوصول الآمن إلى المعلومات الخاصة. الفكرة هي استخدام )MPC( حسابية متعددة الأطراف ، أو )FHE( تشفير متجانسة بالكامل ، أو بيئة تنفيذ موثوقة )TEE( ، أو آليات مماثلة لتوفير معلومات خاصة، ولكن فقط إذا كان مخرجها الوحيد هو "التزام القائمة الكاملة" الذي يذهب مباشرة إلى الميكانيكي.
إذا فعلت ذلك، فيجب أن تقيّد مجموعة الآليات لنموذج الذكاء الاصطناعي (وليس البشر أو مزيج البشر والذكاء الاصطناعي، لأنك لا تستطيع أن تسمح للبشر برؤية البيانات)، وتكون محددة لتشغيل النماذج في بعض الأسس المحددة (على سبيل المثال MPC، FHE، الأجهزة الموثوقة). إحدى الاتجاهات البحثية الرئيسية هي العثور على إصدارات عملية كافية وذات مغزى بشكل كافٍ في الوقت الحالي.
محرك + تصميم عجلة القيادة
هذا التصميم يأتي مع العديد من المزايا المثيرة للترقب. حتى الآن، أهم هذه المزايا هو أنها تسمح ببناء DAO، مما يتيح للناخبين البشريين التحكم في الاتجاه، دون أن يتعرضوا للازدواجية الزائدة في صنع القرارات. إنها تحقق التوازن، حيث لا يتعين على كل شخص اتخاذ N قرار، لكن سلطتهم ليست مجرد اتخاذ قرار واحد (كيف تعمل التفويض عادة)، ولكن أيضاً تحفز تفضيلات غنية وصعبة التعبير مباشرة.
بالإضافة إلى ذلك ، يبدو أن هذه الآلية لها خاصية تجانس الحوافز. ما أعنيه ب "تجانس الحوافز" هنا هو مزيج من عاملين:
الانتشار: لن يؤثر أي إجراء فردي اتخذه آلية التصويت بشكل كبير على مصلحة أي مشارك بشكل كبير.
الارتباك: العلاقة بين قرارات التصويت وكيفية تأثيرها على مصالح المشاركين أكثر تعقيدا ويصعب حسابها.
هذان المصطلحان "الالتباس" و"الانتشار" مأخوذان من علم الكلمات السرية، وهما خاصيتان رئيسيتان لأمان كلمات السر ودوال التجزئة.
ومن الأمثلة الجيدة على تجانس الحوافز في العالم الحقيقي اليوم سيادة القانون: فبدلا من اتخاذ إجراءات منتظمة في شكل "200 مليون دولار لشركة أليس" ، و "100 مليون دولار لشركة بوب" على أساس منتظم ، يمرر أعلى الحكومة قواعد مصممة ليتم تطبيقها بالتساوي على عدد كبير من المشاركين ، والتي يتم تفسيرها بعد ذلك من قبل مجموعة أخرى من الجهات الفاعلة. عندما ينجح هذا النهج ، فإن الفائدة هي أنه يقلل بشكل كبير من فوائد الرشوة وغيرها من أشكال الفساد. عندما يتم انتهاكها ، وهو ما يحدث غالبا في الممارسة العملية ، يتم تضخيم هذه المشاكل بسرعة كبيرة.
من الواضح أن الذكاء الاصطناعي سيكون جزءا مهما من المستقبل ، وسيصبح حتما جزءا مهما من الحكم في المستقبل. ومع ذلك ، إذا قمت بإشراك الذكاء الاصطناعي في الحوكمة ، فهناك مخاطر واضحة: الذكاء الاصطناعي متحيزة ، ويمكن تقويضها عمدا أثناء التدريب ، وتتطور التكنولوجيا الذكاء الاصطناعي بسرعة كبيرة لدرجة أن "وضع الذكاء الاصطناعي في السلطة" قد يعني في الواقع "وضع مسؤولية ترقية الذكاء الاصطناعي". يقدم الحكم البشري المقطر مسارا بديلا إلى الأمام ، مما يسمح لنا بتسخير قوة الذكاء الاصطناعي بطريقة مفتوحة وسوق حرة مع الحفاظ على الديمقراطية التي يسيطر عليها الإنسان.
شكراً خاصاً لـ ديفانش ميهتا، دافيد كرابيس، وجوليان زافيستوفسكي على التغذية الراجعة والاستعراض، ولتينا زين، شو والترز، وغيرهم على المناقشة.
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
فيتاليك نيو ، النموذج الجديد للحكم في المستقبل "محرك الذكاء الاصطناعي + عجلة القيادة البشرية"
العنوان الأصلي: "الذكاء الاصطناعي كمحرك ، البشر كعجلة القيادة"
كتب: فيتاليك، مؤسس إيثريوم
ترجمة: بايشوى، الاقتصاد الذهبي
إذا سألت الناس عن جوانب الهيكل الديمقراطي التي يحبونها، سواء كان ذلك في الحكومة أو مكان العمل أو DAO المعتمد على تقنية سلسلة الكتل، فستسمع غالبًا نفس الحجج: إنها تجنب التركيز الزائد للسلطة، وتوفر ضمانات قوية للمستخدمين، لأنه لا يمكن لأي شخص تغيير اتجاه النظام بمفرده، ويمكنها اتخاذ قرارات ذات جودة أعلى من خلال جمع آراء وحكم العديد من الأشخاص.
إذا سألت الناس عن الجوانب التي لا يحبونها في هيكل الديمقراطية، فإنهم في كثير من الأحيان يقدمون نفس الشكاوى: الناخبون العاديون ليسوا كافياً ذوي خبرة، لأن كل ناخب لديه فرصة صغيرة جداً للتأثير في النتائج، ونادراً ما يقوم الناخبون بالتفكير عالي الجودة في صنع القرار، وكثيراً ما تحدث منخفضة المشاركة (مما يجعل النظام سهل الاختراق) أو التمركز الفعلي، لأن الجميع يثق ويستنسخ آراء بعض الأشخاص ذوي التأثير.
هدف هذه المقالة هو استكشاف نموذج قد يمكن استخدامه بواسطة الذكاء الاصطناعي لاستفادتنا من الهياكل الديمقراطية دون تأثير سلبي. "الذكاء الاصطناعي هو المحرك، والإنسان هو عجلة القيادة". يقدم الإنسان كمية قليلة من المعلومات للنظام، قد تكون فقط بضع مئات، لكنها مدروسة جيدًا وذات جودة عالية. يعتبر الذكاء الاصطناعي هذه البيانات على أنها "دالة هدف" ويتخذ قرارات بكميات كبيرة بلا كلل لتحقيق هذه الأهداف. وبشكل خاص، سيستكشف هذا المقال مشكلة مثيرة للاهتمام: هل يمكننا تحقيق ذلك دون وضع الذكاء الاصطناعي الفردي في مركز الاهتمام، بل من خلال سوق مفتوح تنافسي يمكن لأي ذكاء اصطناعي (أو هجين إنسان-آلة) المشاركة فيه بحرية؟
الفهرس
لماذا لا ندع الذكاء الاصطناعي يتولى المسؤولية؟
فوتارشي
تبخير قوة القضاء البشري
تمويل عميق
زيادة الخصوصية
الفوائد من تصميم المحرك + عجلة القيادة
لماذا لا ندع الذكاء الاصطناعي يتولى المسؤولية؟
أسهل طريقة لتوصيل التفضيلات البشرية بآلية قائمة على الذكاء الاصطناعي هي إنشاء نموذج الذكاء الاصطناعي وجعل البشر بطريقة ما يغذون تفضيلاتهم فيه. هناك طريقة سهلة للقيام بذلك: يمكنك ببساطة وضع ملف نصي يحتوي على قائمة بتعليمات الأشخاص في موجه النظام. يمكنك بعد ذلك استخدام أحد "أطر عمل الذكاء الاصطناعي الوكيل" العديدة لمنح الذكاء الاصطناعي إمكانية الوصول إلى الإنترنت ، ومنحها مفاتيح أصول مؤسستك وملفات تعريف الوسائط الاجتماعية ، وبذلك تكون قد انتهيت.
بعد عدة تطورات، قد يكون هذا كافيا لتلبية احتياجات العديد من حالات الاستخدام، وأتوقع تماما في المستقبل القريب أن نرى العديد من الهياكل التي تشمل تعليمات مجموعات القراءة الذكية (حتى قراءة الدردشات في الوقت الفعلي) واتخاذ إجراءات.
هيكل غير مثالي كآلية للحوكمة المؤسسية على المدى الطويل. إحدى الخصائص القيمة التي يجب أن تمتلكها المؤسسات على المدى الطويل هي النزاهة الموثوق بها. في منشوري الذي أقدم فيه هذا المفهوم، قمت بتحديد أربع خصائص قيمة للنزاهة الموثوق بها:
لا تكتب أشخاصًا محددين أو نتائج محددة في الآلية
تنفيذ مفتوح وقابل للتحقق علناً
البقاء بسيطا
لا تغيره كثيرا
LLM (أو وكيل الذكاء الاصطناعي) يلبي 0/4. يترك النموذج لا مفر من ترميز الكثير من التفضيلات البشرية والنتائج المحددة أثناء عملية تدريبه. في بعض الأحيان ، يمكن أن يؤدي هذا إلى توجهات مفاجئة للذكاء الاصطناعي ، على سبيل المثال ، انظر إلى الدراسة الأخيرة التي تشير إلى أن أولويات LLM الرئيسية تميل إلى حياة باكستان بدلاً من حياة الولايات المتحدة (!!). يمكن أن يكون مفتوح الوزن ، ولكن هذا ليس ما يعرف بالمصدر المفتوح. نحن حقًا لا نعرف ما الذي يخفيه النموذج في عمقه. إنها عكس البساطة: تعقيد Kolmogorov لـ LLM يصل إلى مئات المليارات من البتات ، ما يعادل تقريبًا مجموع جميع القوانين الأمريكية (فيدرالية + ولاية + محلية). وبسبب التطور السريع في الذكاء الاصطناعي ، يجب عليك تغييره كل ثلاثة أشهر.
لهذا السبب ، هناك طريقة أخرى أفضل استكشافها في العديد من حالات الاستخدام وهي أن يكون لديك ميكانيكي بسيط هو قواعد اللعبة الذكاء الاصطناعي يكون اللاعب. هذه البصيرة هي التي تجعل السوق فعالة للغاية: القواعد عبارة عن نظام غبي نسبيا لحقوق الملكية ، ويتم البت في القضايا الهامشية من قبل نظام المحاكم الذي يتراكم ببطء ويعدل السوابق ، وكل المعلومات الاستخباراتية تأتي من رواد الأعمال الذين يعملون "على الهامش".
يمكن أن يكون "اللاعب" الواحد LLMs ، ومجموعات من LLMs التي تتفاعل مع بعضها البعض وتستدعي خدمات الإنترنت المختلفة ، ومجموعات الذكاء الاصطناعي + البشرية المختلفة ، والعديد من التركيبات الأخرى ؛ كمصمم آلية ، لا تحتاج إلى معرفة. الهدف المثالي هو الحصول على آلية يمكن تشغيلها تلقائيا - إذا كان الهدف من هذه الآلية هو اختيار ما يجب تمويله ، فيجب أن يكون مثل مكافأة كتلة Bitcoin أو Ethereum.
فوائد هذه الطريقة هي:
يتجنب إدراج أي نموذج فردي في الآلية؛ بدلاً من ذلك، ستحصل على سوق مفتوح مكون من العديد من المشاركين والهياكل المختلفة، لديها جميعها تحيزاتها الخاصة. النماذج المفتوحة، النماذج المغلقة، الوكلاء الجماعي، الهجين البشري+الذكاء الاصطناعي، الروبوتات، وحتى القردة غير المحدودة جميعها ألعاب عادلة؛ الآلية لن تميز أي شخص.
الآلية مفتوحة المصدر. على الرغم من أن اللاعب ليس كذلك ، إلا أن اللعبة مفتوحة المصدر - وهي نموذج تم فهمه جيدا إلى حد ما (على سبيل المثال ، تعمل الأحزاب السياسية والأسواق بهذه الطريقة)
هذا الآلية بسيطة للغاية، لذلك فإن مصمم الآلية قد قلل من تضمين تحيزاته الشخصية في التصميم
لن تتغير الآلية ، حتى لو كانت بنية المشاركين الأساسيين بحاجة إلى إعادة تصميم كل ثلاثة أشهر من الآن وحتى التفرد.
يهدف آلية التوجيه إلى عكس أهداف المشاركين بدقة. إنها تتطلب كمية قليلة من المعلومات فقط، ولكن يجب أن تكون عالية الجودة.
يمكنك اعتبار أن هذا الآلية تستفيد من عدم التماثل بين تقديم الإجابة والتحقق منها. هذا مشابه لصعوبة حل لعبة سودوكو ولكن سهولة التحقق مما إذا كانت الحلول صحيحة. يمكنك (i) إنشاء سوق مفتوح يجعل اللاعبين يعملون كـ "حلال الألغاز"، ثم (ii) الحفاظ على آلية تعمل بواسطة البشر، تنفذ مهام التحقق من الحلول المقدمة بشكل أسهل بكثير.
فوتارشي
اقترحت Futarchy في البداية بواسطة روبن هانسون، وتعني "التصويت من أجل القيمة، لكن الرهان على المعتقد". يختار آلية التصويت مجموعة من الأهداف (يمكن أن تكون أي أهداف، ولكن الشرط الأساسي هو أن تكون قابلة للقياس)، ثم يجمعها في قياس M. عندما تحتاج إلى اتخاذ قرار (لسهولة الفهم، نفترض أنها نعم / لا)، ستقوم بإعداد سوق شرطي: تطلب من الناس الرهان على (i) ما إذا كان سيختارون نعم أو لا، (ii) إذا كانوا يختارون نعم، فإن قيمة M، وإلا فهي صفر، (iii) إذا اختاروا لا، فإن قيمة M، وإلا فهي صفر. بوجود هذه الثلاث متغيرات، يمكنك تحديد ما إذا كان السوق يعتقد أن نعم أو لا هما الأنسب لقيمة M.
"سعر سهم الشركة" (أو ، في حالة العملة المشفرة ، سعر الرمز المميز) هو المقياس الأكثر شيوعا لأنه من السهل فهمه وقياسه ، ولكن الآلية يمكن أن تدعم مجموعة متنوعة من المقاييس: المستخدمون النشطون شهريا ، ومتوسط السعادة المبلغ عنها ذاتيا لمجموعات معينة ، وبعض المقاييس اللامركزية القابلة للقياس الكمي ، وما إلى ذلك.
كانت Futarchy في الأصل اختراعًا قبل عصر الذكاء الاصطناعي. ومع ذلك، يتماشى Futarchy بشكل طبيعي جدًا مع النمط الذي وصف في الفقرة السابقة "حلو القضايا المعقدة، وتحقّق منها ببساطة"، ويمكن للتجار في Futarchy أن يكونوا أيضًا ذكاء اصطناعي (أو تركيبة بين الإنسان والذكاء الاصطناعي). دور "الحلّال" (تجار سوق التنبؤ) هو تحديد كيف ستؤثر خطط كل اقتراح على قيمة المؤشرات المستقبلية. هذا أمر صعب. إذا كان الحلال على حق، فإنهم سيحققون أرباحًا، وإذا كانوا على خطأ، فإنهم سيتكبدون خسائر. يكفي للتأكد (الأشخاص الذين يصوتون على المؤشرات، إذا لاحظوا أن المؤشر تم "تلاعب" به أو أصبح قديمًا، فسيعدلون المؤشر، ويحددون قيمة المؤشر الفعلية في وقت ما في المستقبل) أن يجيبوا على سؤال أبسط "ما هي قيمة هذا المؤشر الآن؟"
تبخير قوة الحكم البشرية
تقطير الحكم البشري هو فئة من الآليات التي تعمل على النحو التالي. هناك الكثير من الأسئلة (فكر: 1 مليون) التي تحتاج إلى إجابة. تشمل الأمثلة الطبيعية ما يلي:
كم يجب أن يحصل كل شخص في هذه القائمة على الشرف لمساهمته في مشروع أو مهمة معينة؟
أي من هذه التعليقات تنتهك قواعد منصة وسائل التواصل الاجتماعي (أو المجتمع الفرعي)؟
أي من هذه العناوين الخاصة بالإيثيريوم المعطاة تمثل أشخاصًا حقيقيين وفريدين؟
ما هي الكائنات الفيزيائية التي تسهم بشكل إيجابي أو سلبي في جماليات بيئتها؟
لديك فريق يمكنه الرد على هذه الأسئلة، ولكن الثمن هو أن تنفق الكثير من الجهد في كل إجابة. تطلب فقط من الفريق الرد على عدد قليل من الأسئلة (على سبيل المثال، إذا كان القائمة الإجمالية تحتوي على مليون عنصر، فقد يرد الفريق فقط على 100 عنصر). يمكنك حتى طرح أسئلة غير مباشرة على الفريق: لا تسأل "كم يجب أن تحصل آليس على نسبة مئوية من الائتمان الإجمالي؟"، بل اسأل "هل ينبغي لآليس أو بوب الحصول على المزيد من الائتمان، وبمقدار كم؟". عند تصميم آلية هيئة المحلفين، يمكنك إعادة استخدام آليات عالم الواقع التي تم اختبارها لفترة طويلة، مثل لجنة التمويل، المحكمة (لتحديد قيمة الحكم)، والتقييم، وبالطبع، يمكن لمشاركي هيئة المحلفين استخدام أدوات بحث الذكاء الاصطناعي الجديدة لمساعدتهم في إيجاد الإجابات.
ثم، يُسمح لأي شخص بتقديم قائمة بالإجابات الرقمية على مجموعة الأسئلة بأكملها (على سبيل المثال، تقديم تقديرات لقيمة الائتمان التي يجب أن يحصل عليها كل مشارك في القائمة الكاملة). يُشجع المشاركين على استخدام الذكاء الاصطناعي لإتمام هذه المهمة، ولكن يُسمح لهم باستخدام أي تقنيات: ذكاء اصطناعي، مزيج بين الإنسان والآلة، ذكاء اصطناعي قادر على الوصول إلى البحث في الإنترنت وتوظيف البشر أو العمالة الاصطناعية بشكل مستقل، وغيرها. (
بمجرد أن يقدم كل من مزود القائمة الكاملة والمحلف إجاباتهما ، يتم التحقق من القائمة الكاملة مقابل إجابات هيئة المحلفين ، ويتم استخدام مجموعة معينة من القائمة الكاملة الأكثر توافقا مع إجابات هيئة المحلفين كإجابة نهائية.
تختلف آلية الحكم البشري للتقطير عن آلية futarchy ، ولكن هناك بعض أوجه التشابه المهمة:
في futarchy، سيقوم "حكماء الحساب" بعمل توقعات، والبيانات الحقيقية التي تعتمد توقعاتهم عليها (والتي تستخدم لمكافأة أو معاقبة حكماء الحساب) هي قيم المؤشر التي يخرجها جهاز النبوءة الذي يعمل بواسطة هيئة مراقبة.
في تقييم البشر ، سيقدم 'حاسب الحل' إجابات على أسئلة كثيرة ، ويعتمد تنبؤاته على 'البيانات الحقيقية' التي تمثل جزءًا صغيرًا من أجوبة ذات جودة عالية تقدمها هيئة المحلفين.
مثال لعبة اللعب التي تقوم على تقدير البشر لتوزيع الائتمان ، يرجى الرجوع إلى رمز Python هنا. يتطلب البرنامج النصي منك أن تكون عضوًا في هيئة المحلفين ويحتوي على قائمة كاملة مُدرجة مسبقًا من التوليد الذكي (والبشري) التي تم تضمينها في الكود. يتعرف هذا الآلية على التركيب الخطي للقائمة الكاملة التي تناسب إجابة هيئة المحلفين بشكل أفضل. في هذه الحالة ، الجمع الفائز هو 0.199 * إجابة كلود + 0.801 * إجابة ديبسيك؛ هذا الجمع يتوافق أكثر مع إجابة هيئة المحلفين من أي نموذج فردي. ستكون هذه القيم أيضًا مكافأة للمرسل.
في هذا المثال على "هزيمة سورون" ، يتجلى جانب "الرجل كعجلة قيادة" في مكانين. أولا ، يتم تطبيق حكم بشري عالي الجودة على كل سؤال ، على الرغم من أن هذا لا يزال يستخدم هيئة المحلفين كمقيم أداء "تكنوقراطي". ثانيا، هناك آلية تصويت ضمنية تقرر ما إذا كانت "هزيمة سورون" هي الهدف الصحيح (على عكس محاولة تشكيل تحالف مع سورون على سبيل المثال، أو منحه كل الأراضي الواقعة شرق نهر رئيسي معين كتنازل للسلام). هناك حالات استخدام أخرى مقطرة للحكم البشري حيث يتم تنفيذ مهمة هيئة المحلفين بشكل مباشر مع القيم: تخيل ، على سبيل المثال ، منصة وسائط اجتماعية لامركزية (أو مجتمع فرعي) حيث تتمثل وظيفة هيئة المحلفين في وضع علامة على مشاركات المنتدى المختارة عشوائيا على أنها تمتثل أو لا تتبع قواعد المجتمع.
في سياق تبخير النماذج البشرية للحكم، هناك بعض المتغيرات المفتوحة:
كيفية أخذ عينات؟ دور مقدمي القوائم الكاملة هو توفير الإجابات بكميات كبيرة؛ دور المحكمين هو توفير إجابات عالية الجودة. نحتاج إلى اختيار المحكمين بهذه الطريقة واختيار الأسئلة للمحكمين بحيث يظهر قدرتهم على تطابق إجابات المحكمين بأقصى قدر ممكن من أداءهم العام. بعض العوامل التي يجب مراعاتها تشمل:
توازن بين المعرفة المهنية والتحيز: يعمل المحلفون الماهرون عادة في مجالاتهم المهنية المخصصة، لذلك عند اختيارهم للمحتوى الذي يجب تقييمه، ستحصل على مدخلات عالية الجودة. من ناحية أخرى، قد يؤدي الاختيار الزائد إلى التحيز (حيث يميل المحلفون إلى المحتوى الذي يرتبط بأشخاص يعرفونهم) أو نقاط الضعف في العينة (حيث لا يتم تقييم بعض المحتويات بشكل منهجي)
فان جودهارت: ستكون هناك محتويات تحاول "اللعب" بآلية الذكاء الاصطناعي، على سبيل المثال، ينشئ المساهمون العديد من الشفرات التي تبدو مثيرة للانطباع ولكنها غير مفيدة. هذا يعني أن هيئة التحكيم يمكنها اكتشاف ذلك، ولكن النماذج الثابتة للذكاء الاصطناعي لن تكتشف ذلك ما لم يبذلوا جهدًا لذلك. إحدى الطرق المحتملة للتعامل مع هذا السلوك هي إضافة آلية تحدي، حيث يمكن للأفراد وضع علامة على محاولات من هذا القبيل، لضمان أن يتم تقييمها من قبل هيئة التحكيم (مما يشجع مطوري الذكاء الاصطناعي على ضمان اصطيادها بشكل صحيح). إذا وافقت هيئة التحكيم، سيحصل الشخص الذي أبلغ على جائزة، وإذا لم توافق هيئة التحكيم، سيتعين عليه دفع غرامة.
ما نوع الدالة التي تستخدمها؟ فكرة واحدة مستخدمة في نقاط بداية التمويل العميق حاليًا هي طلب من المحكمين إذا كان ينبغي أن يحصل "أ" أو "ب" على المزيد من الائتمان وكم؟ تكون الدالة التقييمية score)x( = sum((log[B]x) - log(x[A] - log)juror_ratio() ** 2 لكل من )A، B، juror_ratio( في jury_answers): أي أنه سيطلب من كل إجابة للجنة المحلفين معرفة مدى اختلاف النسبة المقدمة من اللائحة الكاملة عن تلك التي قدمها المحكمون وإضافة عقوبة تتناسب مع التباين مربعيًا (في الفضاء اللوغاريتمي). هذا من أجل إظهار أن مجال تصميم دالة التقييم غني جدًا، واختيار الدالة التقييمية يعتمد على الأسئلة التي تطرحها للمحكمين.
كيف تكافئ مقدمي القائمة الكاملة؟ في الحالة المثالية، ترغب في منح مكافآت غير صفرية لعدة مشاركين بانتظام لتجنب الآلية الاحتكارية، لكنك ترغب أيضًا في تلبية الخصائص التالية: لا يمكن للمشاركين زيادة المكافآت عن طريق تقديم مجموعة إجابات متطابقة (أو معدلة قليلا) مرارًا وتكرارًا. طريقة واحدة واعدة هي حساب تركيبة خطية للقائمة الكاملة للأجوبة الأكثر ملاءمة للهيئة القضائية (معاملات غير سالبة ومجموعها يساوي 1) مباشرة واستخدام هذه المعاملات نفسها لتقسيم المكافآت. قد تكون هناك طرق أخرى.
بشكل عام ، الهدف هو اتخاذ آليات الحكم البشري المعروفة بأنها تعمل ، ويتم تقليلها إلى الحد الأدنى من التحيز ، وقد صمدت أمام اختبار الزمن (على سبيل المثال ، تخيل كيف أن الهيكل العدائي لنظام المحاكم يشمل طرفين في نزاع لديهما الكثير من المعلومات ولكنهما متحيزان ، وقاض لديه كمية صغيرة من المعلومات ولكن قد لا يكون متحيزا) ، واستخدام سوق الذكاء الاصطناعي مفتوح كمؤشر عالي الدقة ومنخفض التكلفة للغاية لهذه الآليات (على غرار الطريقة التي يعمل بها نموذج النبوءة الكبرى "التقطير").
تمويل عميق (deep funding)
تمثل التمويل العميق تطبيق الحكم الذي تم تقطيره من قبل البشر على مشكلة توزيع الأوزان على الحدود في الرسم التخطيطي "كم نسبة ائتمان X تنتمي إلى Y؟"
أبسط طريقة هي شرح مباشر باستخدام مثال:
ناتج مثال التمويل العميق المكون من مستويين: أصول أفكار Ethereum. تحقق من كود بايثون هنا.
هنا الهدف هو تخصيص الشرف للمساهمات الفلسفية في إثيريوم. دعونا نلقي نظرة على مثال:
تعطي جولة التمويل العميق المحاكية الموضحة هنا 20.5٪ ائتمانا لحركة cypherpunk و 9.2٪ للتقدم التكنولوجي.
في كل نقطة، ستواجه سؤالًا: إلى أي حد هو مساهمة أصلية (وبالتالي تستحق الحصول على الفضل)، وإلى أي حد هو إعادة ترتيب لتأثيرات مصدرية أخرى؟ بالنسبة لحركة البنك السري، فإن 40% جديد و60% تعتمد على الأصول.
يمكنك بعد ذلك إلقاء نظرة على تأثير هذه العقد في المنبع: حصلت الحكومة الصغيرة الليبرالية والأناركية على 17.3٪ من الفضل في حركة cypherpunk ، ولكن 5٪ فقط للديمقراطية المباشرة في سويسرا.
ولكن يرجى ملاحظة أن الحكومة الصغيرة الليبرالية وعدم وجود الحكومة قد ألهما فلسفة العملة البيتكوين، وبالتالي فإنها تؤثر على فلسفة الإيثيريوم عبر طريقتين.
لحساب إجمالي حصة مساهمة الحكومة الصغيرة الليبرالية والأناركية في Ethereum ، تحتاج إلى ضرب الحواف على كل مسار ثم إضافة المسارات معا: 0.205 \ * 0.6 \ * 0.173 + 0.195 \ * 0.648 \ * 0.201 ~= 0.0466. لذا ، إذا كان عليك التبرع بمبلغ 100 دولار لمكافأة جميع أولئك الذين ساهموا في فلسفة Ethereum ، فإن الحكومات الصغيرة الليبرالية والفوضويين سيحصلون على 4.66 دولار وفقا لجولة التمويل العميق المحاكية هذه.
هذه الطريقة مصممة لتكون مناسبة لأولئك الذين يعملون على أساس العمل السابق والذين لديهم هيكلية واضحة تمامًا في مجالهم. الأكاديميين (فكر في: الاستشهاد بالرسوم) والبرمجيات مفتوحة المصدر (فكر في: الاعتمادات الخاصة بالمكتبات والفروع) هما مثالان طبيعيان.
يهدف نظام تمويل العمق الذي يعمل بشكل جيد إلى إنشاء وصيانة رسم بياني عالمي، حيث يمكن لأي مموّل مهتم بدعم مشروع معين إرسال الأموال إلى عنوان يمثل هذا العقد، وستنتقل الأموال تلقائيًا وفقًا لأوزان حواف الرسم البياني إلى التبعيات الخاصة بها (وبشكل متكرر إلى تبعياتها وما إلى ذلك).
يمكنك تخيل بروتوكول غير مركزي يستخدم جهاز تمويل عميق مدمج لإصدار رموزه: سيختار الحكم اللامركزي داخل البروتوكول هيئة محكمة، وستقوم الهيئة بتشغيل آلية التمويل العميق، لأن البروتوكول سيقوم بإصدار الرموز تلقائيًا وسيقوم بتخزينها في العقد المقابل له. من خلال ذلك، يقوم البروتوكول بمكافأة جميع المساهمين المباشرين وغير المباشرين له بطريقة برمجية، مما يذكرنا بكيفية مكافأة كتلة بيتكوين أو إثريوم لنوع معين من المساهمين (المنقبين). من خلال التأثير على وزن الحافة، يمكن لهيئة المحكمة تحديد أنواع المساهمات التي تولي اهتماما مستمرا بها. يمكن استخدام هذه الآلية كبديل لعمليات التعدين أو البيع أو التوزيع الجوي لفترة زمنية واحدة، وهي بديل غير مركزي ومستدام على المدى الطويل.
زيادة الخصوصية
عادةً ما يتطلب التحكم الصحيح في المشكلة المذكورة في المثال أعلاه القدرة على الوصول إلى المعلومات الخاصة: سجلات المحادثات الداخلية للمنظمة، والمعلومات التي تقدمها أعضاء المجتمع سرًا. أحد فوائد "استخدام AI واحد فقط"، خاصة في البيئات الصغيرة، هو أن يكون من الأسهل لل AI الوصول إلى المعلومات بدلاً من نشر المعلومات للجميع.
لكي يعمل الحكم البشري للتقطير أو التمويل العميق في هذه الحالات ، يمكننا محاولة استخدام التشفير لمنح الذكاء الاصطناعي الوصول الآمن إلى المعلومات الخاصة. الفكرة هي استخدام )MPC( حسابية متعددة الأطراف ، أو )FHE( تشفير متجانسة بالكامل ، أو بيئة تنفيذ موثوقة )TEE( ، أو آليات مماثلة لتوفير معلومات خاصة، ولكن فقط إذا كان مخرجها الوحيد هو "التزام القائمة الكاملة" الذي يذهب مباشرة إلى الميكانيكي.
إذا فعلت ذلك، فيجب أن تقيّد مجموعة الآليات لنموذج الذكاء الاصطناعي (وليس البشر أو مزيج البشر والذكاء الاصطناعي، لأنك لا تستطيع أن تسمح للبشر برؤية البيانات)، وتكون محددة لتشغيل النماذج في بعض الأسس المحددة (على سبيل المثال MPC، FHE، الأجهزة الموثوقة). إحدى الاتجاهات البحثية الرئيسية هي العثور على إصدارات عملية كافية وذات مغزى بشكل كافٍ في الوقت الحالي.
محرك + تصميم عجلة القيادة
هذا التصميم يأتي مع العديد من المزايا المثيرة للترقب. حتى الآن، أهم هذه المزايا هو أنها تسمح ببناء DAO، مما يتيح للناخبين البشريين التحكم في الاتجاه، دون أن يتعرضوا للازدواجية الزائدة في صنع القرارات. إنها تحقق التوازن، حيث لا يتعين على كل شخص اتخاذ N قرار، لكن سلطتهم ليست مجرد اتخاذ قرار واحد (كيف تعمل التفويض عادة)، ولكن أيضاً تحفز تفضيلات غنية وصعبة التعبير مباشرة.
بالإضافة إلى ذلك ، يبدو أن هذه الآلية لها خاصية تجانس الحوافز. ما أعنيه ب "تجانس الحوافز" هنا هو مزيج من عاملين:
الانتشار: لن يؤثر أي إجراء فردي اتخذه آلية التصويت بشكل كبير على مصلحة أي مشارك بشكل كبير.
الارتباك: العلاقة بين قرارات التصويت وكيفية تأثيرها على مصالح المشاركين أكثر تعقيدا ويصعب حسابها.
هذان المصطلحان "الالتباس" و"الانتشار" مأخوذان من علم الكلمات السرية، وهما خاصيتان رئيسيتان لأمان كلمات السر ودوال التجزئة.
ومن الأمثلة الجيدة على تجانس الحوافز في العالم الحقيقي اليوم سيادة القانون: فبدلا من اتخاذ إجراءات منتظمة في شكل "200 مليون دولار لشركة أليس" ، و "100 مليون دولار لشركة بوب" على أساس منتظم ، يمرر أعلى الحكومة قواعد مصممة ليتم تطبيقها بالتساوي على عدد كبير من المشاركين ، والتي يتم تفسيرها بعد ذلك من قبل مجموعة أخرى من الجهات الفاعلة. عندما ينجح هذا النهج ، فإن الفائدة هي أنه يقلل بشكل كبير من فوائد الرشوة وغيرها من أشكال الفساد. عندما يتم انتهاكها ، وهو ما يحدث غالبا في الممارسة العملية ، يتم تضخيم هذه المشاكل بسرعة كبيرة.
من الواضح أن الذكاء الاصطناعي سيكون جزءا مهما من المستقبل ، وسيصبح حتما جزءا مهما من الحكم في المستقبل. ومع ذلك ، إذا قمت بإشراك الذكاء الاصطناعي في الحوكمة ، فهناك مخاطر واضحة: الذكاء الاصطناعي متحيزة ، ويمكن تقويضها عمدا أثناء التدريب ، وتتطور التكنولوجيا الذكاء الاصطناعي بسرعة كبيرة لدرجة أن "وضع الذكاء الاصطناعي في السلطة" قد يعني في الواقع "وضع مسؤولية ترقية الذكاء الاصطناعي". يقدم الحكم البشري المقطر مسارا بديلا إلى الأمام ، مما يسمح لنا بتسخير قوة الذكاء الاصطناعي بطريقة مفتوحة وسوق حرة مع الحفاظ على الديمقراطية التي يسيطر عليها الإنسان.
شكراً خاصاً لـ ديفانش ميهتا، دافيد كرابيس، وجوليان زافيستوفسكي على التغذية الراجعة والاستعراض، ولتينا زين، شو والترز، وغيرهم على المناقشة.