النص الكامل هنا! Zhang Hongjiang يتحدث إلى OpenAI Altman: الذكاء الاصطناعي العام سيغير الحضارة بشكل جذري ، ولن يكون هناك GPT-5 قريبًا

المصدر: وول ستريت نيوز

المؤلف: Ge Jiaming

في 10 يونيو ، ظهر مؤسس OpenAI Sam Altman في مؤتمر Zhiyuan للذكاء الاصطناعي لعام 2023 الذي عقد في بكين ، الصين عبر رابط فيديو.كانت هذه هي المرة الأولى التي يلقي فيها ألتمان خطابًا أمام جمهور صيني.

وفي كلمته ، نقل التمان عن "تاو تي تشينج" وتحدث عن التعاون بين الدول الكبرى ، قائلاً إن أمن الذكاء الاصطناعي يبدأ بخطوة واحدة ، ويجب أن يتم التعاون والتنسيق بين الدول.

ثم قبل ألتمان سؤال وجواب مع Zhang Hongjiang ، رئيس معهد Zhiyuan للأبحاث.

يشغل الدكتور Zhang Hongjiang حاليًا منصب رئيس مجلس إدارة معهد بكين Zhiyuan لأبحاث الذكاء الاصطناعي ، ويشغل أيضًا منصب مدير ومستشار مستقل للعديد من الشركات. كان المدير التنفيذي والرئيس التنفيذي لمجموعة Kingsoft والرئيس التنفيذي لشركة Kingsoft Cloud. وكان أحد مؤسسي معهد Microsoft Asia Research Institute.) عميدًا وشركة Microsoft "عالم متميز".

قبل انضمامه إلى Microsoft ، كان Zhang Hongjiang مديرًا لمختبرات Hewlett-Packard في وادي السيليكون بالولايات المتحدة الأمريكية ؛ وقبل ذلك ، عمل أيضًا في معهد علوم الأنظمة بجامعة سنغافورة الوطنية. المحتوى الأساسي لخطاب ألتمان:

  1. السبب وراء تأثير ثورة الذكاء الاصطناعي الحالية ليس فقط في حجم تأثيرها ، ولكن أيضًا في سرعة تقدمها. هذا يجلب كل من الأرباح والمخاطر.
  2. مع ظهور أنظمة الذكاء الاصطناعي القوية بشكل متزايد ، أصبحت أهمية التعاون العالمي أكبر من أي وقت مضى. في بعض الأحداث الهامة ، يجب على البلدان التعاون والتنسيق. يعد تعزيز سلامة الذكاء الاصطناعي العام أحد أهم المجالات التي نحتاج فيها إلى إيجاد مصالح مشتركة.
  3. تظل المحاذاة مشكلة لم يتم حلها. استغرق الأمر GPT-4 ثمانية أشهر للعمل على المحاذاة. ومع ذلك ، لا تزال الأبحاث ذات الصلة قيد التطوير ، وتنقسم بشكل أساسي إلى جانبين: قابلية التوسع وقابلية التفسير.

المحتوى الرئيسي لجلسة الأسئلة والأجوبة:

  1. سيكون لدى البشر نظام ذكاء اصطناعي قوي (AI) في غضون عشر سنوات.
  2. لا يوجد لدى OpenAI جدول زمني جديد مفتوح المصدر ذي صلة ، ونموذج المصدر المفتوح له مزايا ، ولكن قد لا يكون المصدر المفتوح هو الطريق الأفضل (لتعزيز تطوير الذكاء الاصطناعي).
  3. فهم الشبكات العصبية أسهل بكثير من فهم العقول البشرية.
  4. في مرحلة ما ، سنحاول إنشاء نموذج GPT-5 ، ولكن ليس قريبًا. لا أعرف متى سيظهر GPT-5 المحدد.
  5. يتطلب أمن الذكاء الاصطناعي مشاركة ومساهمة الباحثين الصينيين.

ملحوظة: "محاذاة الذكاء الاصطناعي" هي القضية الأكثر أهمية في قضايا التحكم في الذكاء الاصطناعي ، أي أن هدف نظام الذكاء الاصطناعي مطلوب أن يكون متوافقًا (متسقًا) مع القيم والمصالح الإنسانية.

محتوى خطاب سام التمان:

مع ظهور أنظمة ذكاء اصطناعي قوية بشكل متزايد ، لم تكن مخاطر التعاون العالمي أكبر من أي وقت مضى.

إذا لم نكن حذرين ، فإن نظام الذكاء الاصطناعي في غير محله والمصمم لتحسين نتائج الصحة العامة يمكن أن يعطل نظام الرعاية الصحية بأكمله من خلال تقديم توصيات لا أساس لها. وبالمثل ، قد تؤدي أنظمة الذكاء الاصطناعي المصممة لتحسين الإنتاج الزراعي إلى استنفاد الموارد الطبيعية عن غير قصد أو إتلاف النظم البيئية بسبب عدم مراعاة الاستدامة طويلة الأجل التي تؤثر على إنتاج الغذاء والتوازن البيئي.

آمل أن نتفق جميعًا على أن النهوض بسلامة الذكاء الاصطناعي العام هو أحد أهم المجالات التي نحتاج فيها إلى العمل معًا وإيجاد القواسم المشتركة.

سيركز باقي عرضي التقديمي على المكان الذي يمكننا أن نبدأ فيه: ** 1. المجال الأول هو حوكمة الذكاء الاصطناعي العام ** ، أصبح الذكاء الاصطناعي العام بشكل أساسي قوة قوية للتغيير في حضارتنا ، مع التركيز على التعاون الدولي الهادف وضرورة التنسيق. يستفيد الجميع من نهج الحوكمة التعاوني. إذا سلكنا هذا المسار بأمان ومسؤولية ، يمكن لأنظمة AgI أن تخلق ازدهارًا اقتصاديًا لا مثيل له للاقتصاد العالمي ، وتتصدى للتحديات المشتركة مثل تغير المناخ والأمن الصحي العالمي ، وتعزز الرفاهية الاجتماعية.

كما أنني أؤمن بشدة بالمستقبل. نحتاج إلى الاستثمار في أمان الذكاء الاصطناعي العام للوصول إلى ما نريده والاستمتاع به هناك.

للقيام بذلك نحتاج إلى تنسيق دقيق. هذه تقنية عالمية ذات امتداد عالمي. ستؤثر علينا جميعًا تكلفة الحوادث التي يتسبب فيها التطوير والانتشار المتهوران.

في التعاون الدولي ، أعتقد أن هناك مجالين رئيسيين هما الأهم.

أولاً وقبل كل شيء ** نحتاج إلى وضع قواعد ومعايير دولية وإيلاء الاهتمام للشمول في العملية **. يجب أن يتبع استخدام أنظمة الذكاء الاصطناعي العام في أي بلد هذه المعايير والقواعد الدولية على قدم المساواة وثابت. ضمن أسوار الأمان هذه ، نعتقد أن الناس لديهم فرصة كبيرة لاتخاذ خياراتهم بأنفسهم.

ثانيًا ، نحن بحاجة ماسة إلى تعاون دولي لبناء ثقة دولية يمكن التحقق منها في التطوير الآمن لأنظمة الذكاء الاصطناعي المتزايدة القوة. ليس لدي أوهام بأن هذه مهمة سهلة تتطلب قدرًا كبيرًا من الاهتمام المتفاني والمستمر. **

يخبرنا Tao Te Ching: رحلة الألف ميل تبدأ بخطوة واحدة. نعتقد أن الخطوة الأولى الأكثر بناءة في هذا الصدد هي التعاون مع المجتمع العلمي والتكنولوجي الدولي **.

ما يجب التأكيد عليه هو أنه يجب علينا زيادة آلية الشفافية ومشاركة المعرفة في تعزيز التقدم التكنولوجي. عندما يتعلق الأمر بسلامة الذكاء الاصطناعي العام ، يجب على الباحثين الذين يكشفون عن قضايا السلامة الناشئة مشاركة رؤاهم من أجل الصالح العام.

نحن بحاجة إلى التفكير مليًا في الكيفية التي يمكننا بها احترام وحماية الملكية الفكرية مع تشجيع هذه القاعدة. إذا فعلنا ذلك ، فسيفتح لنا أبواباً جديدة لتعميق تعاوننا.

على نطاق أوسع ، يجب أن ** نستثمر في تعزيز البحث وتوجيهه ** حول محاذاة الذكاء الاصطناعي والسلامة.

في Open AI ، يركز بحثنا اليوم على المشكلات التقنية التي تسمح للذكاء الاصطناعي بلعب دور مفيد وأكثر أمانًا في أنظمتنا الحالية. قد يعني هذا أيضًا أننا ندرب ChatGPT بطريقة لا توجه تهديدات بالعنف أو تساعد المستخدمين في أنشطة ضارة.

ولكن مع اقترابنا من عصر الذكاء الاصطناعي العام ، سيزداد التأثير المحتمل وحجم تأثير أنظمة الذكاء الاصطناعي غير المحاذية بشكل كبير. إن معالجة هذه التحديات بشكل استباقي الآن يقلل من مخاطر حدوث نتائج كارثية في المستقبل.

بالنسبة للنظام الحالي ، نستخدم بشكل أساسي التعلم المعزز مع التغذية الراجعة البشرية لتدريب نموذجنا ليكون مساعدًا أمنيًا مفيدًا. هذا مجرد مثال واحد على تقنيات تعديل ما بعد التدريب المختلفة. كما أننا نعمل بجد على تقنيات جديدة ، والتي تتطلب الكثير من العمل الهندسي الشاق.

من وقت انتهاء GPT4 من التدريب المسبق حتى نشره ، نخصص 8 أشهر لعمل المحاذاة. بشكل عام ، نعتقد أننا نقوم بعمل جيد هنا. GPT4 أكثر انسجاما مع الإنسان من أي من نماذجنا السابقة.

ومع ذلك ، لا تزال المواءمة تمثل مشكلة مفتوحة للأنظمة الأكثر تقدمًا ، والتي نعتقد أنها تتطلب مناهج تقنية جديدة مع تعزيز الحوكمة والرقابة.

بالنسبة لأنظمة AGI المستقبلية ، فإنها تقترح 100000 سطر من التعليمات البرمجية الثنائية. من غير المرجح أن يكتشف المشرفون البشريون ما إذا كان مثل هذا النموذج يفعل شيئًا شائنًا. لذلك نحن نستثمر في بعض اتجاهات البحث التكميلية الجديدة التي نأمل أن تؤدي إلى اختراقات.

** **** الأول هو إشراف قابل للتطوير **. يمكننا محاولة استخدام أنظمة الذكاء الاصطناعي لمساعدة البشر في الإشراف على أنظمة الذكاء الاصطناعي الأخرى. على سبيل المثال ، يمكننا تدريب نموذج لمساعدة الإشراف البشري على اكتشاف العيوب في إخراج النماذج الأخرى. ** ** والثاني هو القدرة التفسيرية **. أردنا محاولة فهم ما يحدث داخل هذه النماذج بشكل أفضل. نشرنا مؤخرًا بحثًا باستخدام GPT-4 لتفسير الخلايا العصبية في GPT-2. ** في ورقة أخرى ، استخدمنا Model Internals لاكتشاف متى يكذب النموذج. **ما زال لدينا طريق طويل لنذهب. نعتقد أن تقنيات التعلم الآلي المتقدمة يمكن أن تحسن قدرتنا على الشرح.

في النهاية ، هدفنا هو تدريب أنظمة الذكاء الاصطناعي للمساعدة في دراسات المواءمة. ** يكمن جمال هذا النهج في قدرته على التوسع وفقًا لسرعة تطوير الذكاء الاصطناعي.

يعد جني الفوائد غير العادية للذكاء الاصطناعي العام مع التخفيف من المخاطر أحد التحديات الأساسية في عصرنا. نرى إمكانات كبيرة للباحثين في الصين والولايات المتحدة وحول العالم للعمل معًا لتحقيق نفس الهدف والعمل الجاد لحل التحديات التقنية التي تطرحها مواءمة الذكاء الاصطناعي العام.

إذا فعلنا ذلك ، أعتقد أننا سنكون قادرين على استخدام الذكاء الاصطناعي العام في حل أهم مشاكل العالم وتحسين نوعية حياة الإنسان بشكل كبير. شكراً جزيلاً.

** فيما يلي نص المحادثة: **

في السنوات العشر القادمة سيكون لدينا نظام ذكاء اصطناعي قوي للغاية

سأل Zhang Hongjiang ، رئيس معهد Zhiyuan للأبحاث: ** إلى أي مدى نحن بعيدون عن الذكاء الاصطناعي العام (AGI)؟ هل الخطر مُلح أم أننا بعيدون عنه؟ **

سام التمان: من الصعب تقدير الوقت. ** من المحتمل جدًا أن يكون لدينا أنظمة ذكاء اصطناعي قوية جدًا في السنوات العشر القادمة ، وسوف تغير التقنيات الجديدة العالم بشكل أساسي أسرع مما نعتقد. ** في هذا العالم ، أعتقد أنه من المهم والملح تصحيح هذا الشيء (قواعد أمان الذكاء الاصطناعي) ، ولهذا السبب أناشد المجتمع الدولي للعمل معًا.

بمعنى ما ، فإن التسارع والتأثير المنهجي للتقنيات الجديدة التي نراها الآن غير مسبوق. لذلك أعتقد أن الأمر يتعلق بالاستعداد لما هو قادم وإدراك مخاوف السلامة. بالنظر إلى الحجم الهائل للذكاء الاصطناعي ، فإن المخاطر كبيرة.

برأيك ، في مجال أمن الذكاء الاصطناعي العام ، ما هي مزايا الدول المختلفة لحل هذه المشكلة ، لا سيما في حل مشكلات السلامة المتعلقة بالذكاء الاصطناعي. كيف يمكن الجمع بين نقاط القوة هذه؟

التعاون العالمي لاقتراح معايير وأطر أمان للذكاء الاصطناعي

Zhang Hongjiang: لقد ذكرت عدة مرات في المقدمة السابقة للتو أن التعاون العالمي جار. نحن نعلم أن العالم واجه أزمات كبيرة في الماضي. بطريقة ما ، بالنسبة للكثيرين منهم ، تمكنا من بناء توافق في الآراء وبناء تعاون عالمي. أنت أيضًا في جولة عالمية ، ما نوع التعاون العالمي الذي تحاول الترويج له؟

سام التمان: نعم ، أنا سعيد جدًا بردود فعل الجميع وإجاباتهم حتى الآن. أعتقد أن الناس يأخذون مخاطر وفرص الذكاء الاصطناعي العام على محمل الجد.

أعتقد أن المناقشة الأمنية قد قطعت شوطًا طويلاً في الأشهر الستة الماضية. يبدو أن هناك التزامًا حقيقيًا باكتشاف هيكل يسمح لنا بالاستمتاع بهذه الفوائد أثناء العمل معًا على مستوى العالم لتقليل المخاطر. أعتقد أننا مناسبون تمامًا للقيام بذلك. التعاون العالمي صعب دائمًا ، لكنني أرى أنه فرصة وتهديد لتوحيد العالم. سيكون من المفيد جدًا أن نتمكن من التوصل إلى إطار عمل ومعايير أمان لهذه الأنظمة.

كيفية حل مشكلة محاذاة الذكاء الاصطناعي

Zhang Hongjiang: لقد ذكرت أن محاذاة الذكاء الاصطناعي المتقدم هي مشكلة لم يتم حلها. لقد لاحظت أيضًا أن OpenAI قد بذلت الكثير من الجهد في السنوات القليلة الماضية. لقد ذكرت أن GPT-4 هو إلى حد بعيد أفضل مثال في مجال المحاذاة. هل تعتقد أنه يمكننا حل مشاكل السلامة في AGI فقط من خلال ضبط (API)؟ أم أنها أصعب بكثير من طريقة حل هذه المشكلة؟

سام التمان: أعتقد أن هناك طرقًا مختلفة لفهم محاذاة الكلمة. أعتقد أن ما نحتاج إلى حله هو التحدي في نظام الذكاء الاصطناعي بأكمله ، فالتوافق في المعنى التقليدي لسلوك النموذج الذي يتناسب مع نية المستخدم هو بالتأكيد جزء منه.

ولكن ستكون هناك أيضًا مشكلات أخرى ، مثل كيف نتحقق مما تفعله الأنظمة ، وما نريدها أن تفعله ، وكيف نعدل قيمة النظام. من المهم للغاية رؤية الصورة العامة لسلامة الذكاء الاصطناعي العام.

كل شيء آخر صعب بدون حل تقني. أعتقد أنه من المهم حقًا التركيز على التأكد من أننا نتعامل مع الجوانب الفنية للأمان. كما ذكرت ، معرفة ماهية قيمنا ليس سؤالًا تقنيًا. على الرغم من أنها تتطلب مدخلات فنية ، إلا أنها قضية جديرة بالمناقشة المتعمقة من قبل المجتمع بأسره. يجب علينا تصميم أنظمة عادلة وتمثيلية وشاملة.

Zhang Hongjiang: للمواءمة ، ما نراه GPT-4 لا يزال حلاً من الناحية الفنية. ولكن هناك العديد من العوامل الأخرى إلى جانب التكنولوجيا ، والتي غالبًا ما تكون عامة. قد لا يكون أمان الذكاء الاصطناعي استثناءً هنا. إلى جانب الجوانب الفنية ، ما هي العوامل والقضايا الأخرى؟ هل تعتقد أنه أمر بالغ الأهمية لسلامة الذكاء الاصطناعي؟ كيف يجب أن نستجيب لهذه التحديات؟ خاصة وأن معظمنا علماء. ماذا علينا ان نفعل.

سام التمان: هذا بالتأكيد سؤال معقد للغاية. لكن كل شيء آخر صعب بدون حل تقني. أعتقد أنه من المهم حقًا أن تركز الحكومة على التأكد من معالجة الجوانب الفنية للأمن. ** كما ذكرت ، معرفة ماهية قيمنا ليس سؤالًا تقنيًا. إنها تتطلب مدخلات فنية ، ولكنها أيضًا قضية جديرة بالمناقشة المتعمقة من قبل المجتمع بأسره. ** يجب علينا تصميم أنظمة عادلة وتمثيلية وشاملة. **

وكما أشرت ، نحتاج إلى التفكير في سلامة ليس فقط نموذج الذكاء الاصطناعي الذي يسحب نفسه ، ولكن النظام ككل.

لذلك ، من المهم أن تكون قادرًا على بناء مصنفات وكاشفات آمنة تعمل على أنظمة تراقب الذكاء الاصطناعي من أجل الامتثال لسياسات الاستخدام. أعتقد أنه من الصعب التنبؤ مسبقًا بجميع المشكلات التي ستنشأ مع أي تقنية. لذا تعلم من العالم الحقيقي ، استخدمه وانشره بشكل متكرر لترى ما يحدث عندما تقوم بالفعل بإنشاء الواقع وتحسينه.

من المهم أيضًا إتاحة الوقت للبشر والمجتمعات للتعلم والتحديث ، والتفكير في كيفية تفاعل هذه النماذج مع حياتهم بطرق جيدة وسيئة.

يتطلب تعاون جميع الدول

تشانغ هونغ جيانغ: لقد ذكرت في وقت سابق التعاون العالمي. أنت تسافر حول العالم ، والصين والولايات المتحدة وأوروبا هي القوى الدافعة وراء ابتكار الذكاء الاصطناعي. في رأيك ، في AGI ، ما هي مزايا الدول المختلفة لحل مشاكل الذكاء الاصطناعي العام ، وخاصة سلامة الإنسان؟ سؤال . كيف يمكن الجمع بين نقاط القوة هذه؟

Sam Altman: أعتقد أن الكثير من وجهات النظر المختلفة وأمان الذكاء الاصطناعي مطلوبان بشكل عام. ليس لدينا جميع الإجابات حتى الآن ، وهذا سؤال صعب ومهم إلى حد ما.

أيضًا ، كما ذكرنا ، ليس الأمر تقنيًا بحتًا لجعل الذكاء الاصطناعي آمنًا ومفيدًا. ينطوي على فهم تفضيلات المستخدم في بلدان مختلفة في سياقات مختلفة للغاية. نحن بحاجة إلى الكثير من المدخلات المختلفة لتحقيق ذلك. تمتلك الصين بعضًا من أفضل المواهب في العالم في مجال الذكاء الاصطناعي. بشكل أساسي ، أعتقد أن هناك حاجة إلى أفضل العقول من جميع أنحاء العالم لمعالجة صعوبة مواءمة أنظمة الذكاء الاصطناعي المتقدمة. لذلك آمل حقًا أن يتمكن باحثو الذكاء الاصطناعي الصينيون من تقديم مساهمات عظيمة هنا.

** يتطلب تصميمًا مختلفًا تمامًا لجعل AGI أكثر أمانًا **

Zhang Hongjiang: أسئلة متابعة حول GPT-4 وسلامة الذكاء الاصطناعي. هل من الممكن أن نحتاج إلى تغيير البنية التحتية بأكملها أو البنية الكاملة لنموذج الذكاء الاصطناعي العام. لجعل الفحص أكثر أمانًا وسهولة.

سام التمان: من الممكن تمامًا أننا بحاجة إلى بعض البنى المختلفة للغاية ، سواء من منظور وظيفي أو من منظور أمني.

أعتقد أننا سنكون قادرين على إحراز بعض التقدم ، والتقدم الجيد في شرح قدرات نماذجنا المختلفة في الوقت الحالي ، وجعلهم يشرحون لنا بشكل أفضل ما يفعلونه ولماذا. لكن نعم ، لن أتفاجأ إذا كانت هناك قفزة عملاقة أخرى بعد Transformer. لقد غيرنا الكثير من الهندسة المعمارية منذ المحولات الأصلية.

إمكانية OpenAI مفتوحة المصدر

Zhang Hongjiang: أفهم أن منتدى اليوم يدور حول أمان الذكاء الاصطناعي ، لأن الناس لديهم فضول شديد بشأن OpenAI ، لذلك لدي الكثير من الأسئلة حول OpenAI ، وليس فقط حول أمان الذكاء الاصطناعي. لدي سؤال للجمهور هنا ، هل هناك أي خطة لـ OpenAI لإعادة فتح نماذجها كما فعلت قبل الإصدار 3.0؟ أعتقد أيضًا أن المصدر المفتوح مفيد لسلامة الذكاء الاصطناعي.

Sam Altman: بعض نماذجنا مفتوحة المصدر والبعض الآخر ليس كذلك ، ولكن مع مرور الوقت ، أعتقد أنه يجب أن تتوقع منا الاستمرار في فتح المزيد من النماذج في المستقبل. ليس لدي نموذج أو جدول زمني محدد ، لكنه شيء نناقشه الآن.

Zhang Hongjiang: تبذل BAAI كل الجهود مفتوحة المصدر ، بما في ذلك النماذج والخوارزميات نفسها. نعتقد أن لدينا هذه الحاجة ، والمشاركة والعطاء الذي تعتبره الشخص الذي يسيطرون عليه. هل لديك أفكار مماثلة ، أو تمت مناقشة هذه الموضوعات بين زملائك أو زملائك في OpenAI.

Sam Altman: نعم ، ** أعتقد أن المصدر المفتوح يلعب دورًا مهمًا بطريقة ما. **

كان هناك أيضًا الكثير من النماذج مفتوحة المصدر الجديدة التي ظهرت مؤخرًا. أعتقد أن نموذج API له أيضًا دور مهم. يوفر لنا ضوابط أمنية إضافية. يمكنك حظر استخدامات معينة. يمكنك حظر أنواع معينة من القرص. إذا لم ينجح شيء ما ، يمكنك استعادته. في نطاق النموذج الحالي ، لست قلقًا جدًا بشأن ذلك. ولكن نظرًا لأن النموذج يصبح قويًا كما نتوقع أن يكون ، إذا كنا محقين في ذلك ، أعتقد أن البحث عن مصادر مفتوحة لكل شيء قد لا يكون أفضل طريق ، على الرغم من أنه في بعض الأحيان يكون صحيحًا. ** أعتقد أنه يتعين علينا فقط موازنة ذلك بعناية. **

سيكون لدينا المزيد من النماذج الكبيرة مفتوحة المصدر في المستقبل ، لكن لا يوجد نموذج محدد وجدول زمني.

الخطوة التالية للذكاء الاصطناعي العام؟ هل سنرى GPT-5 قريبًا؟

Zhang Hongjiang: بصفتي باحثًا ، أشعر بالفضول أيضًا ، ما هو الاتجاه التالي لأبحاث الذكاء الاصطناعي العام؟ فيما يتعلق بالنماذج الكبيرة ونماذج اللغات الكبيرة ، هل سنرى GPT-5 قريبًا؟ هل الحدود التالية في النماذج المجسدة؟ هل الروبوتات المستقلة مجال أو تخطط أوبن إيه آي لاستكشافه؟

Sam Altman: لدي فضول أيضًا بشأن الخطوة التالية ، وأحد الأشياء المفضلة لدي في القيام بهذا العمل هو أن هناك الكثير من الإثارة والمفاجأة في طليعة البحث. ليس لدينا إجابات حتى الآن ، لذلك نحن نستكشف العديد من النماذج الجديدة الممكنة. بالطبع ، في مرحلة ما ، سنحاول عمل نموذج GPT-5 ، ولكن ليس في أي وقت قريب. لا نعرف متى بالضبط. لقد عملنا على الروبوتات منذ بداية OpenAI ، ونحن مهتمون جدًا بها ، ولكن واجهتنا بعض الصعوبات. آمل أن نتمكن في يوم من الأيام من العودة إلى هذا المجال.

تشانغ هونغ جيانغ: يبدو رائعا. لقد ذكرت أيضًا في العرض التقديمي كيف تستخدم GPT-4 لشرح كيفية عمل GPT-2 ، مما يجعل النموذج أكثر أمانًا. هل هذا النهج قابل للتطوير؟ هل هذا الاتجاه سيستمر OpenAI في التقدم في المستقبل؟

سام التمان: سنواصل الدفع في هذا الاتجاه.

تشانغ هونغ جيانغ: هل تعتقد أنه يمكن تطبيق هذه الطريقة على الخلايا العصبية البيولوجية؟ لأن سبب طرح هذا السؤال هو أن هناك بعض علماء الأحياء وعلماء الأعصاب الذين يرغبون في استخدام هذه الطريقة لدراسة واستكشاف كيفية عمل الخلايا العصبية البشرية في مجالهم.

سام التمان: من الأسهل بكثير رؤية ما يحدث في الخلايا العصبية الاصطناعية مقارنة بالخلايا العصبية البيولوجية. ** لذا أعتقد أن هذا النهج صالح للشبكات العصبية الاصطناعية. ** أعتقد أن هناك طريقة لاستخدام نماذج أكثر قوة لمساعدتنا في فهم النماذج الأخرى. لكنني لست متأكدًا تمامًا من كيفية تطبيق هذا النهج على الدماغ البشري.

هل من الممكن التحكم في عدد النماذج

تشانغ هونغ جيانغ: حسنًا ، شكرًا لك. الآن بعد أن تحدثنا عن أمان الذكاء الاصطناعي والتحكم في الذكاء الاصطناعي ، فإن أحد الأسئلة التي ناقشناها هو ، هل سيكون الأمر أكثر أمانًا إذا كان هناك ثلاثة نماذج فقط في العالم؟ إنه مثل السيطرة النووية ، فأنت لا تريد أن تنتشر الأسلحة النووية. لدينا هذه المعاهدة حيث نحاول التحكم في عدد الدول التي يمكنها الحصول على هذه التكنولوجيا. إذن ، هل التحكم في عدد النماذج اتجاه ممكن؟

سام التمان: أعتقد أن هناك آراء مختلفة حول ما إذا كان من الآمن أن يكون لديك نموذج أقلية أو نموذج أغلبية في العالم. أعتقد أنه الأهم من ذلك ، هل لدينا نظام يتم فيه اختبار أي نموذج قوي بشكل كافٍ للتأكد من سلامته؟ هل لدينا إطار عمل يتمتع فيه أي شخص ينشئ نموذجًا قويًا بما فيه الكفاية بالموارد والمسؤولية لضمان أن ما ينشئه آمن ومتناسق؟

تشانغ هونغ جيانغ: في هذا الاجتماع بالأمس ، ذكر البروفيسور ماكس من معهد MIT Future of Life طريقة ممكنة ، تشبه الطريقة التي نتحكم بها في تطوير الأدوية. عندما يطور العلماء أو الشركات أدوية جديدة ، لا يمكنك تسويقها بشكل مباشر. عليك أن تمر بعملية الاختبار هذه. هل هذا شيء يمكننا التعلم منه؟

سام التمان: أعتقد بالتأكيد أنه يمكننا تعلم الكثير من أطر الترخيص والاختبار التي تم تطويرها في صناعات مختلفة. لكني أعتقد أن لدينا شيئًا ما يمكنه العمل.

تشانغ هونغ جيانغ: شكرا جزيلا لك ، سام. شكرًا لك على الوقت الذي قضيته في حضور هذا الاجتماع ، وإن كان عبر الإنترنت. أنا متأكد من أن هناك العديد من الأسئلة ، ولكن بالنظر إلى الوقت ، علينا التوقف هنا. آمل أنه في المرة القادمة التي تتاح لك فيها الفرصة للمجيء إلى الصين ، والمجيء إلى بكين ، يمكننا إجراء مناقشة أكثر تعمقًا. شكراً جزيلاً.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت
تداول العملات الرقمية في أي مكان وفي أي وقت
qrCode
امسح لتنزيل تطبيق Gate.io
المنتدى
بالعربية
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)