تحليل Berkeley GEPA: يمكن للذكاء الاصطناعي تعلم مهام جديدة دون تحديث الأوزان، بتكلفة تدريب أقل بـ35 مرة مقارنة بالتعلم التعزيزي (RL)

قدّمت فرق بحثية من جامعة كاليفورنيا في بيركلي طريقة جديدة لتدريب نماذج الذكاء الاصطناعي؛ حيث تم قبول GEPA في ICLR 2026 كبحث Oral. لا تقوم GEPA بتحديث أوزان النموذج ولا تتطلب تدريبًا على وحدات معالجة الرسوميات (GPU)، بل تستخدم LLM واحدًا “يقوم بقراءة سجلات التدريب” لإعادة كتابة مطالبات نظام الذكاء الاصطناعي بشكل متكرر، ما يتيح التفوق بمتوسط 6% على أساليب التعلم المعزز السائدة في 6 مهام، مع تحقيق تفوقٍ يصل إلى 20%، وبتراجع عدد محاولات التدريب المطلوبة (rollouts) بمقدار 35 مرة. بعد أن قامت مجتمعات هندسة الذكاء الاصطناعي بتنظيم نتائج البحث ونشرها، أثارت نقاشًا على منصة X، وقد تم دمجها حاليًا في DSPy كمحسّن من الدرجة الأولى.

GEPA ما الذي تفعله: تحويل سجلات التدريب إلى مواد تعليمية بدل الاكتفاء بالنظر إلى الدرجات

تتمثل سير العمل في طرق التعلم المعزز التقليدية (مثل GRPO) في: جعل الذكاء الاصطناعي ينفّذ المهمة مرة واحدة، ثم إعطاء درجة “+1 أو -1” بناءً على النتائج، وبعدها تعديل أوزان النموذج بشكل متكرر باستخدام هذه الدرجة. المشكلة هي أن تشغيل الذكاء الاصطناعي للمهمة مرة واحدة غالبًا ما يتضمن خطوات استدلال تصل إلى آلاف الرموز (tokens)، واستدعاءات للأدوات، ورسائل أخطاء—وكل هذه التفاصيل الغنية يتم ضغطها في درجة واحدة، بينما تُهمل معلومات العملية. لذلك يحتاج التعلم المعزز إلى تكرار التشغيل لآلاف المرات حتى يصل إلى التقارب.

نهج GEPA عكس ذلك: بعد أن ينهي الذكاء الاصطناعي المهمة في كل مرة، يقوم بتسليم كامل تسلسل العملية (الاستدلال، استدعاءات الأدوات، سجلات الإبلاغ عن الأخطاء) حرفيًا إلى LLM آخر “يقوم بالتأمل” ليقرأه. يقوم LLM الخاص بالتأمل بدور مهندس معماري يقرأ سجلات التشغيل (log)؛ إذ يحدد أين وقع الخطأ، ولماذا وقع، وكيف ينبغي تعديل المطالبات، ثم يعيد كتابة المطالبات الخاصة بذلك الجزء مباشرة. في النهاية، رغم أن تشغيل المهمة يتم مرة واحدة فقط، فإن كمية الإشارة التي تستخلصها GEPA تكون أكبر بكثير من الدرجة الواحدة التي يحصل عليها التعلم المعزز.

لماذا تُحقق نتائج أفضل: تحويل “إعطاء الدرجة” إلى “قراءة كامل تسلسل العملية”

تتفوق GEPA في 6 مهام على GRPO بمتوسط 6%، وبحد أقصى 20%. وبالمقارنة مع مُحسّن مطالبات رئيسي آخر MIPROv2، فإنها تتفوق أيضًا بأكثر من 10% (مع تحسن 12% على معيار المسائل الرياضية AIME-2025). والأهم من ذلك هو تكلفة التدريب: للوصول إلى أداء مماثل، تحتاج GEPA إلى عدد rollouts (تشغيل كامل للمهمة) أقل بمقدار 35 مرة.

ومن بيانات أخرى أيضًا: بعد دمج GEPA مع DSPy، يمكن لـ “Full Program Adapter” تحسين كامل برنامج DSPy (بما في ذلك signature والأجزاء والمخطط التحكمي)، وعند معيار الرياضيات MATH تحقق GEPA نسبة دقة تبلغ 93%، متجاوزة بشكل كبير طريقة ChainOfThought الأصلية في DSPy التي بلغت 67%. كما تُظهر GEPA أداءً ممتازًا بشكل خاص في سير عمل متعدد الوحدات (agents متعددة الوحدات مترابطة)—إذ يمكنها بدقة تحديد وحدة بعينها عند حدوث خطأ وإعادة كتابة مطالباتها، بدلًا من ضبط النظام بالكامل.

من سيبدأ بالاستفادة أولًا: DSPy كمواطن من الدرجة الأولى، وGitHub مفتوح المصدر

تم نشر كود GEPA مفتوحًا على GitHub، وتم دمجه ضمن إطار عمل DSPy بصيغة dspy.GEPA، كما تم نشره بشكل مستقل كمكتبة Python. يضم فريق البحث باحثين عبر مؤسسات مثل UC Berkeley وStanford وNotre Dame وAnthropic وغيرها، ومن بين مؤلفي الورقة Matei Zaharia (المؤسس المشارك لـ Databricks، وهو المؤلف الرئيسي لـ DSPy) وOmar Khattab (المؤلف الرئيسي لـ DSPy).

بالنسبة لمجتمع المطورين، تقدم GEPA حلًا جديدًا لمعضلة “لدينا عدد كبير من rollouts لكننا لا نعرف كيفية الاستفادة منها”—إذ إن معظم الفرق قد راكمت عشرات الآلاف من سجلات تشغيل الـ agents للمهام، لكن بخلاف تصفح بضع سجلات عند حدوث خطأ لمعرفة سبب الخلل، لا توجد طريقة منهجية لتحويل هذه السجلات إلى تحسينات في النموذج. الملاحظة التالية تتمثل في مدى تطبيق GEPA فعليًا داخل سير عمل agents على مستوى الشركات (مثل أتمتة خدمة العملاء، أو الإصلاح التلقائي للبرمجيات)، وما إذا كانت ستظهر تطبيقات مناظر لـ GEPA خارج إطار DSPy.

ظهر تحليل Berkeley GEPA: لا تُحدِّث الأوزان لكي يتعلم الذكاء الاصطناعي مهمة جديدة، بتكلفة تدريب أقل 35 مرة مقارنةً بالتعلم المعزز—بأول مرة على موقع سلسلة الأخبار ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

يُصدر Vercel إطار deepsec مفتوح المصدر مع 1,000+ تزامن داخل بيئات اختبارية لفحص أمان الذكاء الاصطناعي محلياً

وبحسب Beating، أطلقت Vercel نسخة مفتوحة المصدر من deepsec، وهو إطار عمل لاختبار أمني مدعوم بالذكاء الاصطناعي يمكّن المطورين من فحص قواعد شيفرة كبيرة محلياً دون تعريض الشيفرة للمؤسسات السحابية الخارجية. يستخدم الإطار سير عمل تحقق متعدد المراحل: بعد التصفية الأولية باستخدام تعابير منتظمة، فإن

GateNewsمنذ 43 د

تراقب كاميرات Netradyne AI سلوك السائقين ضمن الأساطيل

نظام مراقبة سائق يعمل بالذكاء الاصطناعي من Netradyne تقوم شركة Netradyne، وهي شركة ناشئة هندية، بنشر كاميرات مدعومة بالذكاء الاصطناعي في أساطيل المركبات التجارية لمراقبة سلوك السائقين وتقليل الحوادث. تركّز الكاميرات الداخلية على السائق بدلًا من الركّاب، وتُنبّه السائقين عندما يتجاوزون حدود السرعة أو

CryptoFrontierمنذ 2 س

يطلق AequiSolva بنية Sentinel Stack للذكاء الاصطناعي للتحقق المؤسسي من الأصول في 30 أبريل

وفقًا لـ AequiSolva، أطلقت الشركة بنية تبادلها Sentinel Stack™ المدمجة بالذكاء الاصطناعي في 30 أبريل 2026، مع تنفيذ حتمي ومراقبة للأسواق يقودها الذكاء الاصطناعي ومحرك Omni-Attest Engine™ لإثبات احتياطيات تشفيرية مستمر. تجمع المنصة بين ثلاث ركائز رئيسية

GateNewsمنذ 7 س

كارباتي يوضح: الطريقة الكاملة لبناء قاعدة معرفة شخصية باستخدام نماذج اللغات الكبيرة

أطلق فريق التأسيس في OpenAI، المدير السابق لذكاء اصطناعي في Tesla Andrej Karpathy، على منصة X منشورًا يشرح فيه سير عمل «LLM Knowledge Bases». ويوضح أنه في الفترة الأخيرة نقل استهلاك كمية كبيرة من الرموز (tokens) من «التحكم في كود البرمجة» إلى «التحكم في المعرفة» — عبر استخدام نماذج LLM لتجميع الأوراق والمقالات والمجلدات والمواد الرقمية المشتتة في وِكي شخصي يتم صيانته تلقائيًا. وتراكمت هذه المنظومة بالفعل في مشروعه البحثي الخاص بما يقارب ~100 مقالة و~400 ألف كلمة، كما كُتبت وجُدّدت بالكامل بواسطة LLM. ويعرض هذا المقال إعداد Karpathy الكامل ويقدم للمطورين الذين يرغبون في نسخه قائمة تنفيذية يمكن تطبيقها. الفكرة الأساسية: بيانات خام → ترجمة بواسطة LLM → وِكي → أسئلة وأجوبة يمكن تلخيص فلسفة تصميم Karpathy في一句 واحدة:

ChainNewsAbmediaمنذ 13 س

شركة خزانة بيتكوين K Wave Media تؤمّن ما يصل إلى $485M لبناء البنية التحتية للذكاء الاصطناعي

وفقاً لـ ChainCatcher، أعلنت شركة K Wave Media، وهي شركة خزانة بيتكوين مدرجة في ناسداك، في 4 مايو عن تحول استراتيجي نحو بنية تحتية للذكاء الاصطناعي، مع تأمين دعم رأسمالي يصل إلى 485 مليون دولار لتمويل استثمارات مراكز البيانات وخدمات تأجير وحدات معالجة الرسوميات (GPU) وعمليات الاستحواذ على البنية التحتية للذكاء الاصطناعي والشراكات. الشركة

GateNewsمنذ 14 س

أنتي­ماتر تطلق خطة مركز بيانات للذكاء الاصطناعي مع تمويل بقيمة 300 مليون يورو

أطلقت شركة Antimatter، وهي شركة بنية تحتية سحابية مقرها فرنسا لأحمال عمل الذكاء الاصطناعي، في 4 مايو عبر دمج ثلاث شركات قائمة هي Datafactory وPolicloud وHivenet. وتقوم الشركة بجمع 300 مليون يورو (351 مليون دولار) لنشر 100 وحدة لمراكز بيانات صغيرة في 2026 للاستدلال في الذكاء الاصطناعي

CryptoFrontierمنذ 16 س
تعليق
0/400
لا توجد تعليقات