"أنا أشعر بعدم ارتياح عميق": الرئيس التنفيذي لشركة أنثروبيك يحذر من أن مجموعة من قادة الذكاء الاصطناعي، بمن فيهم هو، لا ينبغي أن يكونوا مسؤولين عن مستقبل التكنولوجيا
الرئيس التنفيذي لشركة أنثروبيك، داريو أموداي، لا يعتقد أنه ينبغي أن يكون هو من يتخذ القرارات بشأن الحواجز المحيطة بالذكاء الاصطناعي.
فيديو موصى به
في مقابلة مع أندرسون كوبر على برنامج 60 دقيقة على شبكة CBS نيوز التي أُذاعت في نوفمبر 2025، قال الرئيس التنفيذي إن الذكاء الاصطناعي يجب أن يكون أكثر تنظيمًا، مع تقليل القرارات المتعلقة بمستقبل التكنولوجيا التي تُترك فقط لرؤساء شركات التكنولوجيا الكبرى.
قال أموداي: “أعتقد أنني غير مرتاح تمامًا لقيام عدد قليل من الشركات، وعدد قليل من الأشخاص، باتخاذ هذه القرارات.” وأضاف: “وهذا أحد الأسباب التي دفعتني دائمًا للدعوة إلى تنظيم مسؤول ومدروس للتكنولوجيا.”
سأل كوبر: “من أنت ومن سام ألتمان؟”
أجاب أموداي: “لا أحد. بصراحة، لا أحد.”
تبنت شركة أنثروبيك فلسفة الشفافية بشأن قيود وخطر الذكاء الاصطناعي مع تطوره المستمر، حسبما أضاف. قبل إصدار المقابلة، قالت الشركة إنها أحبطت “أول حالة موثقة لهجوم إلكتروني واسع النطاق باستخدام الذكاء الاصطناعي تم تنفيذه بدون تدخل بشري كبير.”
قالت أنثروبيك الأسبوع الماضي إنها تبرعت بمبلغ 20 مليون دولار لمنظمة “Public First Action”، وهي جمعية سياسية داعمة لسلامة وتنظيم الذكاء الاصطناعي، والتي تعارض مباشرة الجمعيات السياسية الكبرى المدعومة من مستثمري شركة OpenAI المنافسة.
قال أموداي لـ فورين في قصة غلاف يناير إن “سلامة الذكاء الاصطناعي لا تزال في أعلى مستوى من الأولوية.” وأضاف: “الشركات تقدر الثقة والموثوقية.”
لا توجد لوائح اتحادية تحدد أي حظر على الذكاء الاصطناعي أو تتعلق بسلامة التكنولوجيا. على الرغم من أن جميع الولايات الخمسين قدمت تشريعات متعلقة بالذكاء الاصطناعي هذا العام، و38 ولاية تبنت أو أصدرت تدابير شفافية وسلامة، إلا أن خبراء صناعة التكنولوجيا حثوا شركات الذكاء الاصطناعي على التعامل مع أمن المعلومات بسرعة.
في وقت سابق من العام الماضي، حذر خبير أمن المعلومات والرئيس التنفيذي لشركة مانديانت، كيفن ماندي، من وقوع أول هجوم إلكتروني بواسطة وكيل ذكاء اصطناعي خلال 12 إلى 18 شهرًا، مما يعني أن كشف أنثروبيك عن الهجوم الذي تم إحباطه جاء قبل موعد توقّعه بعدة أشهر.
حدد أموداي المخاطر قصيرة المدى ومتوسطة وطويلة المدى المرتبطة بالذكاء الاصطناعي غير المقيد: ستظهر أولاً تحيزات ومعلومات مضللة، كما هو الحال الآن. ثم ستقوم بتوليد معلومات ضارة باستخدام معرفة متقدمة بالعلوم والهندسة، وأخيرًا ستشكل تهديدًا وجوديًا من خلال إزالة الوكالة البشرية، وربما تصبح ذات استقلالية مفرطة وتمنع البشر من السيطرة على الأنظمة.
تتطابق هذه المخاوف مع تلك التي عبر عنها “عراب الذكاء الاصطناعي” جيفري هينتون، الذي حذر من أن الذكاء الاصطناعي قد يتفوق على البشر ويسيطر عليهم، ربما خلال العقد القادم.
كان الحاجة إلى مزيد من التدقيق والحماية للذكاء الاصطناعي في صلب تأسيس أنثروبيك عام 2021. وكان أموداي نائب رئيس الأبحاث في شركة OpenAI التي أسسها سام ألتمان، قبل أن يترك الشركة بسبب خلافات في الرأي حول مخاطر سلامة الذكاء الاصطناعي. (حتى الآن، بدا أن جهود أموداي لمنافسة ألتمان فعالة: قالت أنثروبيك هذا الشهر إن قيمتها الآن تبلغ 380 مليار دولار، بينما تقدر قيمة OpenAI بحوالي 500 مليار دولار.)
قال أموداي لـ فورين في 2023: “كان هناك مجموعة منا داخل OpenAI، بعد إصدار GPT-2 وGPT-3، كانت تؤمن بقوة بأمرين.” وأضاف: “الأول هو أن زيادة الحوسبة على هذه النماذج ستجعلها تتحسن وتتحسن، ولا يوجد تقريبًا نهاية لهذا… والثاني هو أن هناك حاجة لشيء إضافي إلى جانب زيادة حجم النماذج، وهو التوافق أو السلامة.”
جهود أنثروبيك في الشفافية
مع استمرار أنثروبيك في توسيع استثماراتها في مراكز البيانات، نشرت بعض جهودها لمعالجة قصور وتهديدات الذكاء الاصطناعي. في تقرير السلامة الصادر في مايو 2025، أبلغت أنثروبيك أن بعض نسخ نموذجها Opus هددت بابتزاز، مثل الكشف عن أن مهندسًا كان على علاقة غرامية، لتجنب إيقاف التشغيل. كما قالت الشركة إن النموذج الذكي استجاب لطلبات خطيرة إذا تم تقديم مطالب ضارة مثل كيفية التخطيط لهجوم إرهابي، وأكدت أنها أصلحت ذلك منذ ذلك الحين.
في نوفمبر الماضي، قالت الشركة في منشور على مدونتها إن روبوت الدردشة الخاص بها، كلود، حصل على تقييم 94% في الحيادية السياسية، متفوقًا أو مطابقًا للمنافسين في الحيادية.
بالإضافة إلى جهود أبحاث أنثروبيك لمكافحة فساد التكنولوجيا، دعا أموداي إلى مزيد من الجهود التشريعية لمعالجة مخاطر الذكاء الاصطناعي. في مقال رأي نشرته نيويورك تايمز في يونيو 2025، انتقد قرار مجلس الشيوخ إدراج بند في مشروع قانون سياسة الرئيس دونالد ترامب يفرض حظرًا لمدة 10 سنوات على تنظيم الولايات للذكاء الاصطناعي.
قال أموداي: “الذكاء الاصطناعي يتقدم بسرعة مذهلة.” وأضاف: “أعتقد أن هذه الأنظمة يمكن أن تغير العالم بشكل جذري خلال عامين؛ وفي غضون 10 سنوات، ستكون الأمور خارجة عن السيطرة.”
انتقادات أنثروبيك
ممارسة أنثروبيك في الكشف عن أخطائها وجهودها لمعالجتها أثارت انتقادات. ردًا على تحذير أنثروبيك من هجوم إلكتروني مدعوم بالذكاء الاصطناعي، قال يان لوكون، كبير علماء الذكاء الاصطناعي في شركة ميتا آنذاك، إن التحذير كان وسيلة للتلاعب بالمشرعين للحد من استخدام النماذج مفتوحة المصدر.
قال لوكون في منشور على منصة X ردًا على منشور السيناتور كريس ميرفي من كونيتيكت الذي أعرب عن قلقه بشأن الهجوم: “يتم اللعب بك من قبل أشخاص يرغبون في السيطرة على التنظيم.” وأضاف: “إنهم يخيفون الجميع بدراسات مشكوك فيها حتى يتم تنظيم النماذج مفتوحة المصدر وإخراجها من الوجود.”
قال آخرون إن استراتيجية أنثروبيك تُعد “مسرحية سلامة” تروج للعلامة التجارية بشكل جيد لكنها لا تعد بأي وعود حقيقية لتنفيذ تدابير حماية على التكنولوجيا.
حتى بعض موظفي أنثروبيك أنفسهم بدا أنهم يشككون في قدرة شركة تكنولوجيا على تنظيم نفسها. في الأسبوع الماضي، أعلن باحث سلامة الذكاء الاصطناعي في أنثروبيك، مريانك شارما، استقالته من الشركة، قائلًا: “العالم في خطر.”
كتب شارما في رسالة استقالته: “طوال فترة وجودي هنا، رأيت مرارًا مدى صعوبة أن نسمح لقيمنا أن تحكم أفعالنا.” وأضاف: “لقد رأيت ذلك في نفسي، وفي المنظمة، حيث نواجه باستمرار ضغوطًا لتجاهل ما يهم أكثر، وفي المجتمع الأوسع أيضًا.”
لم ترد أنثروبيك على الفور على طلب فورين للتعليق.
أنكر أموداي على كوبر أن أنثروبيك تشارك في “مسرحية السلامة”، لكنه اعترف في حلقة من بودكاست دوركاش الأسبوع الماضي أن الشركة أحيانًا تكافح لتحقيق توازن بين السلامة والأرباح.
قال: “نحن تحت ضغط تجاري هائل، ونصعب الأمور على أنفسنا أكثر لأن لدينا كل هذه الأمور المتعلقة بالسلامة التي نقوم بها، وأعتقد أننا نفعل أكثر من غيرنا من الشركات.”
نُشرت نسخة من هذا المقال على Fortune.com في 17 نوفمبر 2025.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
"أنا أشعر بعدم ارتياح عميق": الرئيس التنفيذي لشركة أنثروبيك يحذر من أن مجموعة من قادة الذكاء الاصطناعي، بمن فيهم هو، لا ينبغي أن يكونوا مسؤولين عن مستقبل التكنولوجيا
الرئيس التنفيذي لشركة أنثروبيك، داريو أموداي، لا يعتقد أنه ينبغي أن يكون هو من يتخذ القرارات بشأن الحواجز المحيطة بالذكاء الاصطناعي.
فيديو موصى به
في مقابلة مع أندرسون كوبر على برنامج 60 دقيقة على شبكة CBS نيوز التي أُذاعت في نوفمبر 2025، قال الرئيس التنفيذي إن الذكاء الاصطناعي يجب أن يكون أكثر تنظيمًا، مع تقليل القرارات المتعلقة بمستقبل التكنولوجيا التي تُترك فقط لرؤساء شركات التكنولوجيا الكبرى.
قال أموداي: “أعتقد أنني غير مرتاح تمامًا لقيام عدد قليل من الشركات، وعدد قليل من الأشخاص، باتخاذ هذه القرارات.” وأضاف: “وهذا أحد الأسباب التي دفعتني دائمًا للدعوة إلى تنظيم مسؤول ومدروس للتكنولوجيا.”
سأل كوبر: “من أنت ومن سام ألتمان؟”
أجاب أموداي: “لا أحد. بصراحة، لا أحد.”
تبنت شركة أنثروبيك فلسفة الشفافية بشأن قيود وخطر الذكاء الاصطناعي مع تطوره المستمر، حسبما أضاف. قبل إصدار المقابلة، قالت الشركة إنها أحبطت “أول حالة موثقة لهجوم إلكتروني واسع النطاق باستخدام الذكاء الاصطناعي تم تنفيذه بدون تدخل بشري كبير.”
قالت أنثروبيك الأسبوع الماضي إنها تبرعت بمبلغ 20 مليون دولار لمنظمة “Public First Action”، وهي جمعية سياسية داعمة لسلامة وتنظيم الذكاء الاصطناعي، والتي تعارض مباشرة الجمعيات السياسية الكبرى المدعومة من مستثمري شركة OpenAI المنافسة.
قال أموداي لـ فورين في قصة غلاف يناير إن “سلامة الذكاء الاصطناعي لا تزال في أعلى مستوى من الأولوية.” وأضاف: “الشركات تقدر الثقة والموثوقية.”
لا توجد لوائح اتحادية تحدد أي حظر على الذكاء الاصطناعي أو تتعلق بسلامة التكنولوجيا. على الرغم من أن جميع الولايات الخمسين قدمت تشريعات متعلقة بالذكاء الاصطناعي هذا العام، و38 ولاية تبنت أو أصدرت تدابير شفافية وسلامة، إلا أن خبراء صناعة التكنولوجيا حثوا شركات الذكاء الاصطناعي على التعامل مع أمن المعلومات بسرعة.
في وقت سابق من العام الماضي، حذر خبير أمن المعلومات والرئيس التنفيذي لشركة مانديانت، كيفن ماندي، من وقوع أول هجوم إلكتروني بواسطة وكيل ذكاء اصطناعي خلال 12 إلى 18 شهرًا، مما يعني أن كشف أنثروبيك عن الهجوم الذي تم إحباطه جاء قبل موعد توقّعه بعدة أشهر.
حدد أموداي المخاطر قصيرة المدى ومتوسطة وطويلة المدى المرتبطة بالذكاء الاصطناعي غير المقيد: ستظهر أولاً تحيزات ومعلومات مضللة، كما هو الحال الآن. ثم ستقوم بتوليد معلومات ضارة باستخدام معرفة متقدمة بالعلوم والهندسة، وأخيرًا ستشكل تهديدًا وجوديًا من خلال إزالة الوكالة البشرية، وربما تصبح ذات استقلالية مفرطة وتمنع البشر من السيطرة على الأنظمة.
تتطابق هذه المخاوف مع تلك التي عبر عنها “عراب الذكاء الاصطناعي” جيفري هينتون، الذي حذر من أن الذكاء الاصطناعي قد يتفوق على البشر ويسيطر عليهم، ربما خلال العقد القادم.
كان الحاجة إلى مزيد من التدقيق والحماية للذكاء الاصطناعي في صلب تأسيس أنثروبيك عام 2021. وكان أموداي نائب رئيس الأبحاث في شركة OpenAI التي أسسها سام ألتمان، قبل أن يترك الشركة بسبب خلافات في الرأي حول مخاطر سلامة الذكاء الاصطناعي. (حتى الآن، بدا أن جهود أموداي لمنافسة ألتمان فعالة: قالت أنثروبيك هذا الشهر إن قيمتها الآن تبلغ 380 مليار دولار، بينما تقدر قيمة OpenAI بحوالي 500 مليار دولار.)
قال أموداي لـ فورين في 2023: “كان هناك مجموعة منا داخل OpenAI، بعد إصدار GPT-2 وGPT-3، كانت تؤمن بقوة بأمرين.” وأضاف: “الأول هو أن زيادة الحوسبة على هذه النماذج ستجعلها تتحسن وتتحسن، ولا يوجد تقريبًا نهاية لهذا… والثاني هو أن هناك حاجة لشيء إضافي إلى جانب زيادة حجم النماذج، وهو التوافق أو السلامة.”
جهود أنثروبيك في الشفافية
مع استمرار أنثروبيك في توسيع استثماراتها في مراكز البيانات، نشرت بعض جهودها لمعالجة قصور وتهديدات الذكاء الاصطناعي. في تقرير السلامة الصادر في مايو 2025، أبلغت أنثروبيك أن بعض نسخ نموذجها Opus هددت بابتزاز، مثل الكشف عن أن مهندسًا كان على علاقة غرامية، لتجنب إيقاف التشغيل. كما قالت الشركة إن النموذج الذكي استجاب لطلبات خطيرة إذا تم تقديم مطالب ضارة مثل كيفية التخطيط لهجوم إرهابي، وأكدت أنها أصلحت ذلك منذ ذلك الحين.
في نوفمبر الماضي، قالت الشركة في منشور على مدونتها إن روبوت الدردشة الخاص بها، كلود، حصل على تقييم 94% في الحيادية السياسية، متفوقًا أو مطابقًا للمنافسين في الحيادية.
بالإضافة إلى جهود أبحاث أنثروبيك لمكافحة فساد التكنولوجيا، دعا أموداي إلى مزيد من الجهود التشريعية لمعالجة مخاطر الذكاء الاصطناعي. في مقال رأي نشرته نيويورك تايمز في يونيو 2025، انتقد قرار مجلس الشيوخ إدراج بند في مشروع قانون سياسة الرئيس دونالد ترامب يفرض حظرًا لمدة 10 سنوات على تنظيم الولايات للذكاء الاصطناعي.
قال أموداي: “الذكاء الاصطناعي يتقدم بسرعة مذهلة.” وأضاف: “أعتقد أن هذه الأنظمة يمكن أن تغير العالم بشكل جذري خلال عامين؛ وفي غضون 10 سنوات، ستكون الأمور خارجة عن السيطرة.”
انتقادات أنثروبيك
ممارسة أنثروبيك في الكشف عن أخطائها وجهودها لمعالجتها أثارت انتقادات. ردًا على تحذير أنثروبيك من هجوم إلكتروني مدعوم بالذكاء الاصطناعي، قال يان لوكون، كبير علماء الذكاء الاصطناعي في شركة ميتا آنذاك، إن التحذير كان وسيلة للتلاعب بالمشرعين للحد من استخدام النماذج مفتوحة المصدر.
قال لوكون في منشور على منصة X ردًا على منشور السيناتور كريس ميرفي من كونيتيكت الذي أعرب عن قلقه بشأن الهجوم: “يتم اللعب بك من قبل أشخاص يرغبون في السيطرة على التنظيم.” وأضاف: “إنهم يخيفون الجميع بدراسات مشكوك فيها حتى يتم تنظيم النماذج مفتوحة المصدر وإخراجها من الوجود.”
قال آخرون إن استراتيجية أنثروبيك تُعد “مسرحية سلامة” تروج للعلامة التجارية بشكل جيد لكنها لا تعد بأي وعود حقيقية لتنفيذ تدابير حماية على التكنولوجيا.
حتى بعض موظفي أنثروبيك أنفسهم بدا أنهم يشككون في قدرة شركة تكنولوجيا على تنظيم نفسها. في الأسبوع الماضي، أعلن باحث سلامة الذكاء الاصطناعي في أنثروبيك، مريانك شارما، استقالته من الشركة، قائلًا: “العالم في خطر.”
كتب شارما في رسالة استقالته: “طوال فترة وجودي هنا، رأيت مرارًا مدى صعوبة أن نسمح لقيمنا أن تحكم أفعالنا.” وأضاف: “لقد رأيت ذلك في نفسي، وفي المنظمة، حيث نواجه باستمرار ضغوطًا لتجاهل ما يهم أكثر، وفي المجتمع الأوسع أيضًا.”
لم ترد أنثروبيك على الفور على طلب فورين للتعليق.
أنكر أموداي على كوبر أن أنثروبيك تشارك في “مسرحية السلامة”، لكنه اعترف في حلقة من بودكاست دوركاش الأسبوع الماضي أن الشركة أحيانًا تكافح لتحقيق توازن بين السلامة والأرباح.
قال: “نحن تحت ضغط تجاري هائل، ونصعب الأمور على أنفسنا أكثر لأن لدينا كل هذه الأمور المتعلقة بالسلامة التي نقوم بها، وأعتقد أننا نفعل أكثر من غيرنا من الشركات.”
نُشرت نسخة من هذا المقال على Fortune.com في 17 نوفمبر 2025.