كيف يمكن لشبكة ميرا استخدام اللامركزية لعلاج مشكلة "الوهم" في النماذج الكبيرة؟

robot
إنشاء الملخص قيد التقدم

الجميع يعرف أن أكبر عائق أمام تطبيق نماذج الذكاء الاصطناعي في مجالات مثل المالية، الطب، والقانون هو مشكلة "الوهم" في نتائج الذكاء الاصطناعي التي لا تتناسب مع دقة التطبيقات العملية المطلوبة. كيف يمكن حل هذه المشكلة؟ مؤخرًا، أطلقت @Mira_Network شبكة اختبار عامة، وقدمت مجموعة من الحلول، سأشرح لكم ما يحدث:

أولاً، توجد حالات من "الوهم" في أدوات نماذج الذكاء الاصطناعي الكبيرة، ويمكن للجميع إدراك ذلك، والسبب الرئيسي لذلك هو نقطتان:

1، بيانات تدريب AI LLMs ليست مكتملة بما فيه الكفاية، على الرغم من أن حجم البيانات كبير جداً، إلا أنها لا تزال غير قادرة على تغطية بعض المعلومات من المجالات النادرة أو المتخصصة، وفي هذه الحالة تميل AI إلى القيام بـ «إكمال إبداعي» مما يؤدي إلى بعض الأخطاء الزمنية؛

2، تعتمد نماذج اللغة الكبيرة للذكاء الاصطناعي في جوهرها على "عينات الاحتمال"، وهي تتعلق بالتعرف على الأنماط الإحصائية والارتباطات في بيانات التدريب، وليس "فهمًا" حقيقيًا، وبالتالي فإن عشوائية عينات الاحتمال وعدم اتساق النتائج في التدريب والاستدلال وغيرها ستؤدي إلى انحراف الذكاء الاصطناعي عند معالجة الأسئلة الواقعية ذات الدقة العالية؛

كيف يمكن حل هذه المشكلة؟ نشرت منصة ArXiv في جامعة كورنيل مقالة تتناول طريقة للتحقق من موثوقية نتائج LLMs من خلال استخدام نماذج متعددة.

ببساطة، يعني ذلك أولاً السماح للنموذج الرئيسي بإنشاء النتائج، ثم دمج عدة نماذج تحقق لإجراء "تحليل تصويت الأغلبية" على هذه المشكلة، مما يمكن أن يقلل من "الهلوسة" التي ينتجها النموذج.

في سلسلة من الاختبارات ، تم العثور على أن هذه الطريقة يمكن أن تزيد من دقة مخرجات الذكاء الاصطناعي إلى 95.6٪.

بما أن ذلك كذلك، فمن المؤكد أننا بحاجة إلى منصة تحقق موزعة لإدارة والتحقق من عملية التفاعل التعاوني بين النموذج الرئيسي ونموذج التحقق، وشبكة ميرا هي شبكة وسيطة تم تصميمها خصيصًا للتحقق من نماذج الذكاء الاصطناعي LLMs، حيث تبني طبقة تحقق موثوقة بين المستخدم ونموذج الذكاء الاصطناعي الأساسي.

مع وجود شبكة طبقة التحقق هذه ، يمكن تحقيق خدمات التكامل بما في ذلك حماية الخصوصية وضمان الدقة والتصميم القابل للتطوير وواجهات API الموحدة والخدمات المتكاملة الأخرى ، ويمكن توسيع إمكانية الهبوط الذكاء الاصطناعي في سيناريوهات التطبيقات المقسمة الفرعية المختلفة عن طريق تقليل وهم الإخراج ل الذكاء الاصطناعي LLMs ، وهو أيضا ممارسة في تنفيذ مشاريع الذكاء الاصطناعي LLMs بواسطة شبكة التحقق الموزعة Crypto.

على سبيل المثال، شاركت شبكة ميرا بعض الحالات في مجالات المالية والتعليم وبيئة البلوك تشين التي يمكن أن تثبت ذلك:

  1. بعد دمج Gigabrain مع Mira، يمكن للنظام إضافة حلقة للتحقق من دقة تحليل السوق والتنبؤات، وتصفيه الاقتراحات غير الموثوقة، مما يمكن أن يزيد من دقة إشارات التداول الذكية، ويجعل استخدام نماذج اللغة الكبيرة للذكاء الاصطناعي في سيناريوهات DeFi أكثر موثوقية.

  2. يستخدم Learnrite mira للتحقق من الأسئلة الموحدة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما يمكّن المؤسسات التعليمية من الاستفادة من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على نطاق واسع، دون التأثير على دقة محتوى الاختبارات التعليمية، للحفاظ على معايير التعليم الصارمة؛

  3. مشروع blockchain Kernel استخدم آلية توافق LLM الخاصة بـ Mira ودمجها في نظام BNB البيئي، مما أنشأ شبكة تحقق لامركزية DVN، مما يضمن إلى حد ما دقة وأمان تنفيذ حسابات AI على blockchain.

فوق.

في الواقع ، من خلال تعزيز التدريب على جانب البيانات ، فإن تعزيز التفاعل بين النماذج الكبيرة متعددة الوسائط ، وتعزيز حوسبة الخصوصية من خلال تقنيات التشفير المحتملة مثل ZKP و FHE و TEE وما إلى ذلك ، كلها مسارات اختيارية. ومع ذلك ، فإن حل ميرا مكلف لأنه يمكن تنفيذه بسرعة وله نتائج مباشرة.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • 1
  • مشاركة
تعليق
0/400
Nadeenavip
· 03-28 00:02
gjgjgjg goooood
عرض الترجمةرد0
  • تثبيت
تداول العملات الرقمية في أي مكان وفي أي وقت
qrCode
امسح لتنزيل تطبيق Gate.io
المنتدى
بالعربية
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)