Variant 投资合伙人:مفتوح المصدر AI 的困境与突破,为什么التشفير技术是最后一块拼图؟

المؤلف: دانيال باراباندر مترجم: ديب تايد TechFlow ملخص موجز في الوقت الحاضر ، يهيمن عدد قليل من شركات التكنولوجيا على تطوير الذكاء الاصطناعي الأساسية ، والتي تتميز بالإغلاق ونقص المنافسة. في حين أن تطوير البرمجيات هو حل محتمل ، فإن الذكاء الاصطناعي التأسيسية لا تعمل بشكل جيد مثل مشاريع المصدر المفتوح التقليدية (على سبيل المثال ، Linux) لأنها تواجه "مشكلة موارد": لا يحتاج المساهمون إلى استثمار الوقت فحسب ، بل يتعين عليهم أيضا تحمل تكاليف الحوسبة والبيانات بما يتجاوز إمكانياتهم. من المتوقع أن تحل تقنية التشفير مشكلة الموارد هذه من خلال تحفيز مزودي الموارد على المشاركة في مشاريع الذكاء الاصطناعي المصدر التأسيسية. يمكن أن يؤدي الجمع بين المصدر المفتوح الذكاء الاصطناعي وتقنية التشفير إلى دعم تطوير النموذج على نطاق أوسع ودفع المزيد من الابتكار لإنشاء أنظمة الذكاء الاصطناعي أكثر تقدما. مقدمة وفقا لمسح أجراه مركز بيو للأبحاث (Pew Center) الأبحاث في عام 2024 ، يعتقد 64٪ من الأمريكيين أن تأثير وسائل التواصل الاجتماعي على الأمة يضر أكثر مما ينفع. 78٪ يقولون أن شركات وسائل التواصل الاجتماعي لديها الكثير من القوة والتأثير في السياسة. 83٪ يعتقدون أن هذه المنصات من المرجح أن تفرض رقابة متعمدة على الآراء السياسية التي يختلفون معها. أصبح عدم الرضا عن وسائل التواصل الاجتماعي تقريبا أحد القلائل في المجتمع الأمريكي. إذا نظرنا إلى الوراء في تطور وسائل الإعلام الاجتماعية على مدى السنوات ال 20 الماضية ، يبدو أن هذا الوضع مقدر مسبقا. القصة ليست معقدة: لقد جذبت حفنة من شركات التكنولوجيا الكبرى انتباه المستخدمين ، والأهم من ذلك ، بيانات المستخدم. على الرغم من الآمال الأولية في البيانات المفتوحة ، غيرت الشركات استراتيجيتها بسرعة ، باستخدام البيانات لبناء تأثيرات شبكة غير قابلة للكسر وإغلاق الوصول الخارجي. والنتيجة هي الوضع اليوم: أقل من 10 شركات تكنولوجيا كبرى تهيمن على صناعة وسائل التواصل الاجتماعي ، مما يخلق مشهد "احتكار القلة الاحتكارية". نظرا لأن الوضع الراهن موات للغاية بالنسبة لهم ، فإن هذه الشركات ليس لديها حافز كبير للتغيير. هذا النموذج مغلق ويفتقر إلى المنافسة. اليوم ، يبدو أن مسار التكنولوجيا الذكاء الاصطناعي يعيد نفسه ، لكن التأثير هذه المرة أبعد مدى. قامت حفنة من شركات التكنولوجيا ببناء نماذج الذكاء الاصطناعي تأسيسية من خلال التحكم في وحدات معالجة الرسومات وموارد البيانات ، وأوقفت الوصول إلى هذه النماذج. بالنسبة للوافدين الجدد الذين ليس لديهم مليارات الدولارات من التمويل ، يكاد يكون من المستحيل تطوير نموذج تنافسي. نظرا لأن التكلفة الحسابية لتدريب نموذج أساسي واحد فقط هي مليارات الدولارات ، فإن شركات وسائل التواصل الاجتماعي التي استفادت من الموجة الأخيرة من التكنولوجيا تستخدم سيطرتها على بيانات المستخدم الخاصة لتطوير نماذج يصعب على المنافسين مطابقتها. نحن نكرر أخطاء وسائل التواصل الاجتماعي ونتحرك نحو عالم الذكاء الاصطناعي مغلق وغير تنافسي. إذا استمر هذا الاتجاه ، فإن حفنة من شركات التكنولوجيا سيكون لها سيطرة غير مقيدة على الوصول إلى المعلومات والفرص. مفتوح المصدر الذكاء الاصطناعي و "مشكلة الموارد" إذا كنا لا نريد أن نرى عالما مغلقا الذكاء الاصطناعي ، فما هي خياراتنا؟ الجواب الواضح هو تطوير النموذج الأساسي كمشروع برمجي مفتوح المصدر. تاريخيا ، كان لدينا عدد لا يحصى من مشاريع المصدر المفتوح التي نجحت في بناء البرامج الأساسية التي نعتمد عليها كل يوم. على سبيل المثال ، يثبت نجاح Linux أنه حتى البرامج الأساسية مثل نظام التشغيل يمكن تطويرها بطريقة مفتوحة المصدر. فلماذا لا تستطيع LLMs (نماذج اللغة الكبيرة)؟ ومع ذلك ، فإن القيود الخاصة التي تواجهها نماذج الذكاء الاصطناعي الأساسية تجعلها مختلفة عن البرامج التقليدية ، مما يضعف أيضا بشكل كبير من صلاحيتها كمشروع مفتوح المصدر التقليدي. على وجه التحديد ، تتطلب نماذج الذكاء الاصطناعي التأسيسية موارد حوسبة وبيانات هائلة تتجاوز بكثير قدرات الفرد. على عكس مشاريع المصدر المفتوح التقليدية ، التي تعتمد فقط على الأشخاص الذين يتبرعون بوقتهم ، يطلب مفتوح المصدر الذكاء الاصطناعي أيضا من الأشخاص التبرع بقوة الحوسبة وموارد البيانات ، والتي تعرف باسم "مشكلة الموارد". باستخدام نموذج LLaMa الخاص ب Meta كمثال ، يمكننا فهم مشكلة الموارد هذه بشكل أفضل. على عكس المنافسين مثل OpenAI و Google ، لا تخفي Meta نماذجها خلف واجهات برمجة التطبيقات المدفوعة ، ولكنها بدلا من ذلك تقدم علنا أوزان LLaMa لأي شخص لاستخدامها مجانا (مع قيود معينة). تحتوي هذه الأوزان على ما يتعلمه النموذج أثناء تدريب Meta وهي ضرورية لتشغيل النموذج. باستخدام هذه الأوزان، يمكن للمستخدم ضبط النموذج أو استخدام مخرجات النموذج كمدخل لنموذج جديد. في حين أن إصدار Meta من LLaMa يستحق التقدير ، إلا أنه لا يعتبر مشروعا برمجيا حقيقيا مفتوح المصدر. خلف الكواليس، تتحكم Meta في عملية التدريب، وتعتمد على موارد الحوسبة والبيانات والقرارات الخاصة بها، وتقرر من جانب واحد متى تجعل النموذج متاحا للجمهور. لا تدعو Meta الباحثين أو المطورين المستقلين للمشاركة في التعاون المجتمعي، حيث أن الموارد المطلوبة لتدريب النماذج أو إعادة تدريبها تتجاوز بكثير قدرات الفرد العادي. تتضمن هذه الموارد عشرات الآلاف من وحدات معالجة الرسومات عالية الأداء ، ومراكز البيانات لتخزين وحدات معالجة الرسومات هذه ، ومرافق التبريد المتطورة ، وتريليونات الرموز المميزة (وحدات البيانات النصية المطلوبة لتدريب النماذج) للتدريب. كما هو مذكور في تقرير مؤشر الذكاء الاصطناعي لعام 2024 الصادر عن جامعة ستانفورد ، "إن التكلفة الهائلة للتدريب تستبعد بشكل فعال الجامعات ، التي كانت تقليديا مراكز قوة أبحاث الذكاء الاصطناعي ، من تطوير نموذج تأسيسي من الدرجة الأولى". على سبيل المثال ، ذكر Sam Altman أنه يكلف ما يصل إلى 100 مليون دولار لتدريب GPT-4 ، وهذا لا يشمل حتى النفقات الرأسمالية للأجهزة. بالإضافة إلى ذلك، ارتفعت النفقات الرأسمالية لشركة Meta بمقدار 2.1 مليار دولار أمريكي في الربع الثاني من عام 2024 مقارنة بالفترة نفسها من عام 2023، خاصة للخوادم ومراكز البيانات والبنية التحتية للشبكة المتعلقة بتدريب نموذج الذكاء الاصطناعي. نتيجة لذلك ، في حين أن المساهمين في مجتمع LLaMa قد يكون لديهم القدرة التقنية على تحسين بنية النموذج ، إلا أنهم يفتقرون إلى الموارد اللازمة لتنفيذ هذه التحسينات. باختصار ، على عكس مشاريع برمجيات مفتوح المصدر التقليدية ، لا تتطلب مشاريع Open المصدر الذكاء الاصطناعي المساهمين استثمار الوقت فحسب ، بل تتطلب منهم أيضا تحمل تكاليف حسابية وبيانات عالية. ومن غير الواقعي الاعتماد فقط على النوايا الحسنة والعمل التطوعي لحفز عدد كاف من مقدمي الموارد. إنهم بحاجة إلى مزيد من الحوافز. خذ نموذج اللغة الكبيرة مفتوح المصدر BLOOM ، وهو نموذج معلمة 176 مليار يجمع جهود 1000 باحث متطوع من أكثر من 250 مؤسسة في أكثر من 70 دولة. في حين أن نجاح بلوم كان مثيرا للإعجاب (وأنا أؤيده تماما) ، فقد استغرق الأمر عاما لتنسيق دورة تدريبية واعتمد على 3 ملايين يورو من التمويل من معهد أبحاث فرنسي (لا يشمل النفقات الرأسمالية للكمبيوتر الخارق المستخدم لتدريب النموذج). إن عملية الاعتماد على جولة جديدة من التمويل للتنسيق والتكرار على BLOOM مرهقة للغاية بحيث لا تتناسب مع سرعة التطوير في مختبرات التكنولوجيا الكبيرة. لقد مر أكثر من عامين منذ إصدار BLOOM ، ولم يسمع الفريق عن أي نماذج متابعة حتى الآن. لكي يكون الذكاء الاصطناعي مفتوح المصدر ممكنا ، نحتاج إلى إيجاد طريقة لتحفيز مزودي الموارد على المساهمة بقدرتهم الحاسوبية وموارد البيانات الخاصة بهم ، بدلا من ترك المساهمين في المصدر المفتوح يتحملون هذه التكاليف بأنفسهم. لماذا يمكن لتقنية التشفير أن تحل "مشكلة الموارد" الأساسية مفتوحة المصدر الذكاء الاصطناعي يتمثل الاختراق الأساسي لتقنية التشفير في جعل مشاريع برمجيات المصدر المفتوح ذات التكلفة العالية للموارد ممكنة من خلال آلية "الملكية". إنه يحل مشاكل الموارد في الذكاء الاصطناعي مفتوح المصدر من خلال تحفيز مزودي الموارد المحتملين على المشاركة في الشبكة ، بدلا من تحمل المساهمين في المصدر المفتوح تكلفة هذه الموارد مقدما. BTC هو مثال جيد على ذلك. كأول مشروع تشفير ، BTC هو مشروع برمجي مفتوح المصدر بالكامل تم نشر رمزه منذ البداية. ومع ذلك ، فإن الكود نفسه ليس مفتاح BTC. ليس من المنطقي تنزيل برنامج BTCkey وتشغيله وإنشاء سلسلة كتلة محليا. لا يمكن تحقيق القيمة الحقيقية للبرنامج إلا إذا كان مقدار الحساب كافيا لتجاوز القدرة الحاسوبية لأي مساهم واحد: الحفاظ على دفتر الأستاذ غير المنضبط للمركزية. على غرار الذكاء الاصطناعي المصدر المفتوح الأساسي ، يعد BTC أيضا مشروع مفتوح المصدر يتطلب موارد خارج نطاق قدرات الفرد. في حين أن الاثنين يتطلبان موارد حسابية لأسباب مختلفة - تحتاج BTC إلى موارد حسابية لضمان عدم إمكانية العبث بالشبكة ، بينما تتطلب الذكاء الاصطناعي الأساسية موارد حسابية لتحسين النماذج وتكرارها - ما يشتركون فيه جميعا هو أن كلاهما يعتمد على موارد تتجاوز قدرات الأفراد. "السر" ل BTC ، وكذلك أي شبكة تشفير أخرى ، التي تحفز المشاركين على المساهمة بالموارد في مشاريع برمجيات المصدر المفتوح هو توفير ملكية الشبكة من خلال الرموز المميزة. كما هو مذكور في فلسفة جيسي التأسيسية المكتوبة ل Variant في عام 2020 ، توفر الملكية حافزا قويا لمقدمي الموارد ليكونوا على استعداد للمساهمة بالموارد مقابل مكاسب محتملة في الشبكة. تشبه هذه الآلية الطريقة التي تعالج بها الشركات الناشئة نقص التمويل في المراحل المبكرة من خلال (Sweat Equity) "الإنصاف في العرق" - من خلال دفع رواتب الموظفين في المراحل المبكرة (على سبيل المثال ، المؤسسين) في المقام الأول في شكل ملكية الشركة ، تكون الشركات الناشئة قادرة على جذب العمالة التي لن تكون قادرة على تحملها. توسع تقنية التشفير مفهوم "المساواة في العرق" من التركيز على المساهمين في الوقت إلى مزودي الموارد. نتيجة لذلك ، تركز Variant على الاستثمار في المشاريع التي تستفيد من آليات الملكية لبناء تأثيرات الشبكة ، مثل Uniswap و Morpho و World. إذا أردنا أن يصبح المصدر المفتوح الذكاء الاصطناعي حقيقة واقعة ، فإن آلية الملكية المطبقة من خلال تقنية التشفير هي الحل الرئيسي لمشكلة الموارد. تمنح هذه الآلية الباحثين حرية المساهمة بأفكار تصميم نماذجهم في مشاريع مفتوحة المصدر ، حيث أن الموارد الحسابية والبيانات المطلوبة لتحقيق هذه الأفكار سيتحملها مزود الموارد ، الذي سيكافأ بالحصول على ملكية جزئية للمشروع ، بدلا من مطالبة الباحثين أنفسهم بتحمل التكاليف الأولية المرتفعة. في المصدر المفتوح الذكاء الاصطناعي ، يمكن أن تتخذ الملكية أشكالا عديدة ، ولكن أحد أكثر الأشكال المتوقعة هو ملكية النموذج نفسه ، وهو أيضا الحل الذي اقترحته Pluralis. يعرف النهج الذي اقترحته Pluralis باسم نماذج البروتوكول. في هذا النموذج ، يمكن لمزود موارد الحوسبة تدريب نموذج مفتوح المصدر محدد من خلال المساهمة بقوة الحوسبة ، وبالتالي الحصول على ملكية جزئية من دخل الاستدلال المستقبلي للنموذج. نظرا لأن هذه الملكية مرتبطة بنموذج معين ، وتستند قيمتها إلى إيرادات الاستدلال الخاصة بالنموذج ، يتم تحفيز موفري موارد الحوسبة لتحديد النموذج الأمثل للتدريب دون تزوير بيانات التدريب (نظرا لأن توفير تدريب عديم الفائدة يؤدي مباشرة إلى القيمة المتوقعة لإيرادات الاستدلال المستقبلية). ومع ذلك ، فإن السؤال الرئيسي هو: كيف تضمن Pluralis أمان الملكية إذا كانت عملية التدريب تتطلب إرسال أوزان النموذج إلى مزود الحساب؟ تكمن الإجابة في استخدام تقنية "موازاة النموذج" (Model Parallelism) لتوزيع النموذج على عمال مختلفين. من السمات المهمة للشبكات العصبية أنه حتى لو كان جزء صغير فقط من أوزان النموذج معروفا ، فلا يزال بإمكان المحسب المشاركة في التدريب ، مما يضمن عدم إمكانية استخراج المجموعة الكاملة من الأوزان. بالإضافة إلى ذلك ، نظرا لأنه يتم تدريب العديد من الطرز المختلفة في نفس الوقت على منصة Pluralis ، سيواجه المدرب عددا كبيرا من مجموعات الوزن المختلفة ، مما يجعل من الصعب للغاية إعادة بناء النموذج الكامل. الفكرة الأساسية لنماذج البروتوكول هي أنه يمكن تدريب هذه النماذج واستخدامها ، ولكن لا يمكن استخراجها بالكامل من بروتوكول (ما لم تتجاوز قوة الحوسبة المستخدمة الموارد اللازمة لتدريب النموذج من الصفر). تحل هذه الآلية مشكلة غالبا ما يثيرها منتقدو المصدر المفتوح الذكاء الاصطناعي أن المنافسين الذكاء الاصطناعي المغلقين يمكن أن يختلسوا ثمار عمل مشروع المصدر المفتوح. لماذا التشفير التكنولوجيا + مفتوح المصدر = أفضل الذكاء الاصطناعي في بداية المقال ، أوضحت الجوانب الأخلاقية والمعيارية الذكاء الاصطناعي المغلقة من خلال تحليل سيطرة شركات التكنولوجيا الكبرى على الذكاء الاصطناعي. لكن في عصر العجز ، أخشى أن مثل هذه الحجة قد لا يتردد صداها لدى معظم القراء. لذا ، أود أن أقدم سببين عمليين يجعلان الذكاء الاصطناعي مفتوح المصدر ، مدعوما بتقنية التشفير ، يمكن أن يؤدي حقا إلى الذكاء الاصطناعي أفضل. أولا ، سيكون الجمع بين تقنية التشفير والمصدر المفتوح الذكاء الاصطناعي قادرا على تنسيق المزيد من الموارد لدفع تطوير الجيل التالي من النماذج الأساسية ، (Foundation Models). أظهرت الدراسات أن كلا من الزيادة في قوة الحوسبة وموارد البيانات يمكن أن تساعد في تحسين أداء النموذج ، وهذا هو سبب توسع حجم النموذج الأساسي. يوضح لنا BTC إمكانات برنامج المصدر المفتوح جنبا إلى جنب مع تقنية التشفير من حيث قوة الحوسبة. لقد أصبحت أكبر وأقوى شبكة حوسبة في العالم ، أكبر بكثير من موارد الحوسبة السحابية المملوكة لشركة Big Tech. الميزة الفريدة لتقنية التشفير هي قدرتها على تحويل المنافسة المنعزلة إلى منافسة تعاونية. من خلال تحفيز مزودي الموارد على المساهمة بالموارد لحل المشكلات الشائعة ، بدلا من العمل في صوامع وتكرار الجهود ، تتيح شبكة التشفير الاستخدام الفعال للموارد. باستخدام تقنية التشفير ، سيتمكن مفتوح المصدر الذكاء الاصطناعي من الاستفادة من موارد الحوسبة والبيانات في العالم لبناء نماذج تتجاوز الذكاء الاصطناعي المغلقة. على سبيل المثال ، أثبتت شركة Hyperbolic إمكانات هذا النموذج. إنهم يستفيدون إلى أقصى حد من موارد الحوسبة الموزعة من خلال تمكين أي شخص من استئجار وحدات معالجة الرسومات بتكلفة أقل من خلال سوق مفتوح. ثانيا ، سيؤدي الجمع بين تقنية التشفير والمصدر المفتوح الذكاء الاصطناعي إلى تسريع الابتكار. هذا لأنه بمجرد حل مشكلة الموارد ، يمكن أن تعود أبحاث التعلم الآلي إلى طبيعتها التكرارية والمبتكرة للغاية للمصدر. قبل ظهور نماذج اللغة الكبيرة التأسيسية (LLM) ، غالبا ما أصدر الباحثون في مجال التعلم الآلي نماذجهم ومخططات تصميمهم القابلة للتكرار. تستخدم هذه النماذج عادة مجموعات بيانات مفتوحة المصدر ولها متطلبات حسابية منخفضة نسبيا ، مما يسمح للباحثين بالتحسين والابتكار باستمرار على رأس هذه المتطلبات. هذه العملية التكرارية المفتوحة هي التي أدت إلى العديد من الاختراقات في مجال النمذجة المتسلسلة ، مثل الشبكات العصبية المتكررة (RNN) ، وشبكات الذاكرة طويلة المدى (LSTM) ، وآليات الانتباه (Attention Mechanisms) ، هذا يجعل بنية نموذج المحولات ممكنة في النهاية. ومع ذلك ، فقد تغير هذا النهج المفتوح للبحث منذ إطلاق GPT-3. من خلال نجاح GPT-3 و ChatGPT ، أثبت OpenAI أنه مع وجود موارد وبيانات حوسبة كافية ، من الممكن تدريب نماذج لغوية كبيرة بقدرات فهم اللغة. وقد أدى هذا الاتجاه إلى زيادة حادة في عتبات الموارد، مما أدى إلى الاستبعاد التدريجي للأوساط الأكاديمية وحقيقة أن شركات التكنولوجيا الكبرى لم تعد تكشف عن بنياتها النموذجية من أجل الحفاظ على ميزة تنافسية. هذا الوضع يحد من قدرتنا على دفع طليعة الذكاء الاصطناعي. مفتوح المصدر الذكاء الاصطناعي ، الذي يتم تنفيذه من خلال تقنية التشفير ، يمكن أن يغير ذلك. يسمح للباحثين بالتكرار على النماذج المتطورة مرة أخرى لاكتشاف "المحول التالي". لا يحل هذا المزيج مشكلة الموارد فحسب ، بل ينشط أيضا الابتكار في مجال التعلم الآلي ، مما يفتح مسارا أوسع لمستقبل الذكاء الاصطناعي.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت