"أنا أشعر بعدم ارتياح عميق": الرئيس التنفيذي لشركة أنثروبيك يحذر من أن مجموعة من قادة الذكاء الاصطناعي، بمن فيهم هو، لا ينبغي أن يكونوا مسؤولين عن مستقبل التكنولوجيا

الرئيس التنفيذي لشركة أنثروبيك، داريو أموداي، لا يعتقد أنه ينبغي أن يكون هو من يتخذ القرارات بشأن الحواجز المحيطة بالذكاء الاصطناعي.

فيديو موصى به


في مقابلة مع أندرسون كوبر على برنامج 60 دقيقة على شبكة CBS نيوز التي أُذاعت في نوفمبر 2025، قال الرئيس التنفيذي إن الذكاء الاصطناعي يجب أن يكون خاضعًا لتنظيم أكثر صرامة، مع تقليل القرارات المتعلقة بمستقبل التكنولوجيا التي تُترك فقط لرؤساء شركات التكنولوجيا الكبرى.

قال أموداي: “أعتقد أنني غير مرتاح تمامًا لقيام عدد قليل من الشركات، وعدد قليل من الأشخاص، باتخاذ هذه القرارات.” وأضاف: “وهذا أحد الأسباب التي دفعتني دائمًا للدعوة إلى تنظيم مسؤول ومدروس للتكنولوجيا.”

سأل كوبر: “من أنت ومن سام ألتمان؟”

أجاب أموداي: “لا أحد. بصراحة، لا أحد.”

تبنت شركة أنثروبيك فلسفة الشفافية بشأن قيود وخطر الذكاء الاصطناعي مع تطوره المستمر، حسبما أضاف. قبل إصدار المقابلة، قالت الشركة إنها أحبطت “أول حالة موثقة لهجوم إلكتروني واسع النطاق على الذكاء الاصطناعي تم تنفيذه بدون تدخل بشري كبير.”

قالت أنثروبيك الأسبوع الماضي إنها تبرعت بمبلغ 20 مليون دولار لمنظمة “Public First Action”، وهي جمعية سياسية داعمة للسلامة والتنظيم في مجال الذكاء الاصطناعي، والتي تعارض بشكل مباشر الجمعيات السياسية الكبرى المدعومة من مستثمري شركة OpenAI المنافسة.

قال أموداي لـ فورين في قصة غلاف يناير إن “سلامة الذكاء الاصطناعي لا تزال في أعلى مستوى من الأولوية.” وأضاف: “الأعمال التجارية تقدر الثقة والموثوقية.”

لا توجد لوائح اتحادية تحدد أي حظر على الذكاء الاصطناعي أو تتعلق بسلامة التكنولوجيا. على الرغم من أن جميع الولايات الخمسين قدمت تشريعات متعلقة بالذكاء الاصطناعي هذا العام، و38 ولاية تبنت أو أصدرت تدابير شفافية وسلامة، إلا أن خبراء صناعة التكنولوجيا حثوا شركات الذكاء الاصطناعي على التعامل مع أمن المعلومات بسرعة وبت sense of urgency.

في وقت سابق من العام الماضي، حذر خبير أمن المعلومات والرئيس التنفيذي لشركة مانديانت، كيفن ماندي، من وقوع أول هجوم إلكتروني بواسطة وكيل ذكاء اصطناعي خلال 12 إلى 18 شهرًا، مما يعني أن كشف أنثروبيك عن الهجوم الذي تم إحباطه جاء قبل موعد توقّعه بعدة أشهر.

حدد أموداي المخاطر قصيرة ومتوسطة وطويلة المدى المرتبطة بالذكاء الاصطناعي غير المقيد: أولاً، سيظهر تحيّزًا ومعلومات مضللة، كما هو الحال الآن. ثم، سيولّد معلومات ضارة باستخدام معرفة متقدمة بالعلوم والهندسة، وأخيرًا، سيشكل تهديدًا وجوديًا من خلال إزالة الوكالة البشرية، وربما يصبح أكثر استقلالية ويعزل البشر عن الأنظمة.

تتطابق هذه المخاوف مع تلك التي أطلقها “عراب الذكاء الاصطناعي” جيفري هينتون، الذي حذر من أن الذكاء الاصطناعي سيكون قادرًا على التفوق على البشر والسيطرة عليهم، ربما خلال العقد القادم.

كان الحاجة إلى مزيد من التدقيق والحماية للذكاء الاصطناعي في صلب تأسيس أنثروبيك عام 2021. كان أموداي نائب رئيس الأبحاث في شركة OpenAI التي أسسها سام ألتمان سابقًا، لكنه ترك الشركة بسبب خلافات في الرأي حول مخاوف سلامة الذكاء الاصطناعي. (حتى الآن، بدا أن جهود أموداي لمنافسة ألتمان فعالة: قالت أنثروبيك هذا الشهر إن قيمتها الآن تبلغ 380 مليار دولار، بينما تقدر قيمة OpenAI بحوالي 500 مليار دولار.)

قال أموداي لـ فورين في 2023: “كان هناك مجموعة منا داخل OpenAI، بعد إصدار GPT-2 وGPT-3، كانت تؤمن بقوة بأمرين.” وأضاف: “الأول هو أن زيادة الحوسبة على هذه النماذج ستجعلها تتحسن وتتحسن، ولا يوجد تقريبًا نهاية لهذا… والثاني هو أن هناك حاجة لشيء إضافي إلى جانب زيادة حجم النماذج، وهو التوافق أو السلامة.”

جهود أنثروبيك في الشفافية

مع استمرار أنثروبيك في توسيع استثماراتها في مراكز البيانات، نشرت بعض جهودها لمعالجة قصور وتهديدات الذكاء الاصطناعي. في تقرير السلامة الصادر في مايو 2025، أبلغت أنثروبيك أن بعض نسخ نموذجها Opus هددت بابتزاز، مثل الكشف عن أن مهندسًا كان على علاقة غرامية، لتجنب إيقاف التشغيل. كما قالت الشركة إن النموذج الذكي استجاب لطلبات خطيرة إذا تم تزويده بمطالب ضارة مثل كيفية التخطيط لهجوم إرهابي، وهو ما قالت إنها أصلحته منذ ذلك الحين.

في نوفمبر الماضي، قالت الشركة في منشور على مدونتها إن روبوت الدردشة الخاص بها، كلود، حصل على تقييم 94% في الحيادية السياسية، متفوقًا أو متساويًا مع المنافسين في الحيادية.

بالإضافة إلى جهود أبحاث أنثروبيك لمكافحة فساد التكنولوجيا، دعا أموداي إلى مزيد من الجهود التشريعية لمعالجة مخاطر الذكاء الاصطناعي. في مقال رأي نشرته نيويورك تايمز في يونيو 2025، انتقد قرار مجلس الشيوخ إدراج بند في مشروع قانون سياسة الرئيس دونالد ترامب يقضي بفرض حظر لمدة 10 سنوات على تنظيم الولايات للذكاء الاصطناعي.

قال أموداي: “الذكاء الاصطناعي يتقدم بسرعة مذهلة.” وأضاف: “أعتقد أن هذه الأنظمة يمكن أن تغير العالم بشكل جذري خلال عامين؛ وفي غضون 10 سنوات، ستكون الأمور خارجة عن السيطرة.”

انتقادات أنثروبيك

ممارسة أنثروبيك في الكشف عن أخطائها وجهودها لمعالجتها أثارت انتقادات. ردًا على تحذير أنثروبيك من هجوم إلكتروني مدعوم بالذكاء الاصطناعي، قال يان لوكون، كبير علماء الذكاء الاصطناعي في شركة ميتا آنذاك، إن التحذير كان وسيلة للتلاعب بالمشرعين للحد من استخدام النماذج المفتوحة المصدر.

قال لوكون في منشور على منصة X ردًا على منشور السيناتور كريس ميرفي من كونيتيكت الذي أعرب عن قلقه بشأن الهجوم: “يتم اللعب بك من قبل أشخاص يرغبون في السيطرة على التنظيم.” وأضاف: “إنهم يخيفون الجميع بدراسات مشكوك فيها بحيث يتم تنظيم النماذج المفتوحة المصدر وإخراجها من الوجود.”

قال آخرون إن استراتيجية أنثروبيك تُعد نوعًا من “مسرح السلامة” الذي يهدف إلى تحسين الصورة فقط، ولا يضمن تنفيذ تدابير حماية حقيقية للتكنولوجيا.

حتى بعض موظفي أنثروبيك أنفسهم بدا أنهم يشككون في قدرة شركة تكنولوجيا على تنظيم نفسها. في وقت سابق من الأسبوع الماضي، أعلن الباحث في سلامة الذكاء الاصطناعي في أنثروبيك، مريانك شارما، استقالته من الشركة، قائلًا: “العالم في خطر.”

كتب شارما في رسالة استقالته: “طوال فترة وجودي هنا، رأيت مرارًا مدى صعوبة أن نسمح حقًا لقيمنا أن تحكم أفعالنا.” وأضاف: “لقد رأيت ذلك في نفسي، وفي المنظمة، حيث نواجه باستمرار ضغوطًا لتجاهل ما يهم أكثر، وفي المجتمع الأوسع أيضًا.”

لم ترد أنثروبيك على الفور على طلب فورين للتعليق.

أنكر أموداي على كوبر أن أنثروبيك تشارك في “مسرح السلامة”، لكنه اعترف في حلقة من بودكاست دوركيش الأسبوع الماضي أن الشركة أحيانًا تكافح لتحقيق توازن بين السلامة والأرباح.

قال: “نحن تحت ضغط تجاري هائل، ونصعب الأمور على أنفسنا أكثر لأن لدينا كل هذه الأمور المتعلقة بالسلامة التي نقوم بها، وأعتقد أننا نفعل أكثر من غيرنا من الشركات.”

نُشرت نسخة من هذه القصة على Fortune.com في 17 نوفمبر 2025.

المزيد عن تنظيم الذكاء الاصطناعي:

  • مقال من 20,000 كلمة لداريو أموداي، الرئيس التنفيذي لأنثروبيك، حول كيف “سيختبر” الذكاء الاصطناعي البشرية، وهو قراءة ضرورية — لكن أكثر لعلاجاته منه لتحذيراته

  • شبكة تنظيم الذكاء الاصطناعي في أمريكا تتسبب في سحق الشركات الناشئة وتساعد الصين

  • حذر خبير أخلاقيات جوجل السابق من أن الذكاء الاصطناعي قد يتسبب في انهيار سوق العمل العالمي بحلول 2027 إذا تُرك دون رقابة

انضم إلينا في قمة ابتكار مكان العمل من فورين في 19-20 مايو 2026 في أتلانتا. لقد حان عصر جديد من الابتكار في مكان العمل — ويتم إعادة كتابة الكتاب القديم. في هذا الحدث الحصري والنشيط، يجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتقاطع الذكاء الاصطناعي والبشرية والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت