القاضي يدعم Anthropic، ويحظر على وزارة الدفاع الأمريكية معاقبة Claude بسبب "علامة مخاطر سلسلة التوريد".

動區BlockTempo

قاضي المحكمة الفيدرالية في كاليفورنيا، ريتا لين، أصدر في 26 مارس أمرًا أوليًا بحظر غير محدد المدة على تصنيف وزارة الدفاع لمخاطر سلسلة الإمداد المتعلقة بشركة Anthropic. يبلغ طول قرار المحكمة 43 صفحة، ويشير مباشرة إلى أن هذه الخطوة تنتهك التعديل الأول وحقوق الإجراءات القانونية الواجبة، حيث انتقدت بشدة هذا الإجراء باعتباره انتقامًا غير قانوني نموذجي بموجب التعديل الأول.
(خلفية: من المتوقع أن تطرح Anthropic للاكتتاب العام في الربع الرابع! تقييم الشركة 380 مليار دولار، تتنافس مع OpenAI على توقيت الاكتتاب العام)
(معلومات إضافية: تقرير مؤشر الاقتصاد الذكي لشركة Anthropic AI: تزايد تكرار سير العمل في التداول الآلي، Claude يتحول من أداة إلى مساعد حياتي)

فهرس المقال

تبديل

  • خطان أحمران، يشعلان الصراع
  • تصنيف غير مسبوق، يكشفه القاضي بشكل مباشر
  • هيغسيث يواجه الفشل المتكرر، انتصار رمزي لشركات الذكاء الاصطناعي

قرار من 43 صفحة، جعل الإجراءات الانتقامية لوزارة الدفاع تصطدم بجدار كبير. قامت القاضية ريتا لين بإصدار أمر أولي في 26، بحظر غير محدد المدة على تصنيف وزارة الدفاع لمخاطر سلسلة الإمداد المتعلقة بشركة الذكاء الاصطناعي Anthropic، وكذلك الأمر الذي يطلب من الوكالات الفيدرالية قطع جميع التعاملات التجارية ذات الصلة.

استخدمت القاضية لين عبارات صارمة في قرارها، مشيرة إلى أن تصرفات وزارة الدفاع غير دستورية: “لا يوجد أي نص قانوني يدعم هذا المفهوم الأورويلي (أي توسيع الحكومة للسلطة، التلاعب باللغة أو محو التاريخ)، حيث يتم وصف شركة أمريكية بأنها عدو محتمل ومخرب لمجرد عدم توافقها مع آراء الحكومة.”

كما أعلنت لين أن القرار سيتأخر لمدة أسبوع قبل أن يصبح ساري المفعول، مما يمنح الحكومة نافذة زمنية للاستئناف.

خطان أحمران، يشعلان الصراع

كانت الشرارة التي أشعلت هذه المواجهة هي الخطين الأحمرين اللذين وضعتهما Anthropic في شروط عقد نموذج Claude AI: عدم استخدام Claude في أنظمة الأسلحة الذاتية، وعدم استخدامه في المراقبة الجماعية داخل البلاد.

ما كانت وزارة الدفاع تريده هو الوصول غير المحدود إلى “جميع الاستخدامات القانونية” لـ Claude، خاصة في سيناريوهات الحرب. حيث أكد رئيس تكنولوجيا وزارة الدفاع، إميل مايكل، في مقابلة مع CNBC في وقت سابق من هذا الشهر: “لا يمكننا السماح لشركة لديها تفضيلات سياسية مختلفة، وتدمج تلك التفضيلات في النموذج، بتلويث سلسلة الإمداد، مما يجعل جنودنا يستخدمون أسلحة، وسترات واقية ومعدات غير فعالة.”

ومع ذلك، لم تتأثر Anthropic، وأصرت على أن حواجز عقدها هي جزء من حرية التعبير المحمية. بعد أن انهارت المفاوضات بين الطرفين، استخدم وزير الدفاع، بيت هيغسيث، في فبراير من هذا العام، وسائل غير مسبوقة: حيث أدرجت Anthropic كخطر على سلسلة الإمداد، وبتوقيع مشترك مع ترامب، طالبت جميع الوكالات الفيدرالية بقطع جميع التعاملات التجارية مع الشركات التي تتعامل مع Anthropic.

تصنيف غير مسبوق، يكشفه القاضي بشكل مباشر

كانت هذه القبعة الخاصة بمخاطر سلسلة الإمداد قد وُضعت سابقًا فقط على الشركات التي يُشتبه في ارتباطها بأعداء أجانب مثل الصين، والآن تُستخدم على شركة أمريكية محلية في مجال الذكاء الاصطناعي، مما يجعلها سابقة تاريخية.

تدعي Anthropic أن هذا التصنيف يدمر سمعة الشركة ويعرضها لخطر فقدان عقود حكومية تقدر بمئات الملايين من الدولارات، وقد قامت على الفور برفع دعوى قضائية في 9 مارس أمام المحكمة الفيدرالية في سان فرانسيسكو.

في قرارها، كشفت لين عن الدوافع الحقيقية لوزارة الدفاع: “يبدو أن الغرض من هذه الإجراءات الواسعة ليس لصالح ما تدعيه الحكومة من مصالح الأمن القومي. تظهر سجلات وزارة الدفاع أن السبب وراء تصنيف Anthropic كخطر على سلسلة الإمداد هو موقفها العدائي من خلال وسائل الإعلام.” وكتبت أيضًا:

“معاقبة Anthropic من خلال عرض موقف الحكومة في مجال المشتريات أمام الجمهور هو انتقام غير قانوني نموذجي بموجب التعديل الأول.”

معنى هذا هو أن الحكومة تتخذ قرارًا إداريًا معينًا، قد يبدو أن له أسبابًا أخرى، ولكن الدافع الحقيقي هو معاقبة Anthropic على تصريحاتها أو مواقفها السابقة.

رحبت Anthropic بالقرار، حيث صرح المتحدث باسمها: “نحن نشكر المحكمة على سرعة اتخاذها القرار، ونسعد بأن المحكمة تعتقد أن Anthropic من المحتمل أن تفوز بشكل جوهري. الهدف من هذه القضية هو حماية Anthropic، وعملائنا وشركائنا، لكن تركيزنا لا يزال على التعاون البناء مع الحكومة، لضمان استفادة جميع الأمريكيين من الذكاء الاصطناعي الآمن والموثوق.”

هيغسيث يواجه الفشل المتكرر، انتصار رمزي لشركات الذكاء الاصطناعي

هذه ليست المرة الأولى التي يواجه فيها وزير الدفاع هيغسيث الفشل في المحكمة. في وقت سابق من هذا الشهر، حكم قاضٍ في واشنطن العاصمة بأن قيوده المفروضة على عدد من الصحفيين تنتهك التعديل الأول؛ وفي فبراير من هذا العام، حكم قاضٍ آخر بأنه قمعه لحرية التعبير لأحد أعضاء مجلس الشيوخ الديمقراطيين غير دستوري أيضًا.

معنى هذه القضية يتجاوز مجرد انتصار أو هزيمة شركة واحدة، فهي تحدد خطًا لشركات الذكاء الاصطناعي: يمكن للحكومة أن تطلب الوصول، ولكن لا يمكنها إجبار الشركات على التخلي عن حواجزها الأخلاقية المدمجة؛ وفي نفس الوقت، تعبير الشركات عن مواقفها محمي بموجب الدستور، وليس من الممكن أن يكون “خطر سلسلة الإمداد” وسيلة للابتزاز.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات