الذكاء الاصطناعي في أوروبا: ماذا قد يعني قانون الذكاء الاصطناعي

الصورة بواسطة مايكو أوموريم على Unsplash


لا تزال لائحة الذكاء الاصطناعي مجرد مسودة، لكن المستثمرين وأصحاب الأعمال في الاتحاد الأوروبي يشعرون بالفعل بالقلق إزاء النتائج المحتملة.

هل ستمنع الاتحاد الأوروبي من أن يكون منافسًا قيمًا في الساحة العالمية؟

وفقًا للجهات التنظيمية، الأمر ليس كذلك. لكن دعونا نرى ما يحدث.

اللائحة الخاصة بالذكاء الاصطناعي وتقييم المخاطر

تقسم لائحة الذكاء الاصطناعي المخاطر التي يفرضها الذكاء الاصطناعي إلى فئات مخاطر مختلفة، ولكن قبل ذلك، تضيق التعريف للذكاء الاصطناعي ليشمل فقط الأنظمة المبنية على التعلم الآلي والمنطق.

هذا لا يهدف فقط إلى تمييز أنظمة الذكاء الاصطناعي عن البرمجيات الأبسط، بل يساعدنا أيضًا على فهم سبب رغبة الاتحاد الأوروبي في تصنيف المخاطر.

يُصنف الاستخدامات المختلفة للذكاء الاصطناعي إلى مخاطر غير مقبولة، ومخاطر عالية، ومخاطر منخفضة أو بسيطة. تعتبر الممارسات التي تقع تحت فئة المخاطر غير المقبولة محظورة.

تشمل هذه الممارسات:

  • الممارسات التي تتضمن تقنيات تعمل خارج وعي الإنسان،
  • الممارسات التي تهدف إلى استغلال أجزاء ضعيفة من السكان،
  • الأنظمة المبنية على الذكاء الاصطناعي المصممة لتصنيف الأشخاص وفقًا لخصائصهم الشخصية أو سلوكياتهم،
  • الأنظمة المبنية على الذكاء الاصطناعي التي تستخدم التعريف البيومتري في الأماكن العامة.

هناك بعض الحالات التي يجب اعتبارها مشابهة لبعض الممارسات المدرجة ضمن الأنشطة المحظورة، وتقع ضمن فئة “المخاطر العالية”.

وتشمل هذه الأنظمة المستخدمة لتوظيف العمال أو لتقييم وتحليل الجدارة الائتمانية للأشخاص (وقد يكون ذلك خطيرًا على التكنولوجيا المالية). في هذه الحالات، يجب على جميع الشركات التي تنشئ أو تستخدم هذا النوع من الأنظمة إصدار تقارير مفصلة تشرح كيفية عمل النظام والإجراءات المتخذة لتجنب المخاطر على الأشخاص ولتكون بأقصى قدر من الشفافية.

كل شيء يبدو واضحًا وصحيحًا، لكن هناك بعض المشاكل التي يجب على الجهات التنظيمية معالجتها.

اللائحة تبدو عامة جدًا

واحدة من الجوانب التي تثير قلق أصحاب الأعمال والمستثمرين أكثر هي نقص الاهتمام بالقطاعات المحددة للذكاء الاصطناعي.

على سبيل المثال، الشركات التي تنتج وتستخدم أنظمة الذكاء الاصطناعي للأغراض العامة يمكن اعتبارها من تلك التي تستخدم الذكاء الاصطناعي لحالات استخدام عالية المخاطر.

وهذا يعني أنه يتعين عليها إصدار تقارير مفصلة تتطلب وقتًا ومالًا. وبما أن الشركات الصغيرة والمتوسطة لا تستثنى، وتشكل أكبر جزء من اقتصادات أوروبا، فقد تصبح أقل تنافسية مع مرور الوقت.

والفرق بين شركات الذكاء الاصطناعي الأمريكية والأوروبية هو مصدر قلق كبير: فإيطاليا، أوروبا لا تمتلك شركات ذكاء اصطناعي كبيرة مثل الولايات المتحدة، حيث أن بيئة الذكاء الاصطناعي في أوروبا تتكون بشكل رئيسي من الشركات الصغيرة والمتوسطة والشركات الناشئة.

وفقًا لاستطلاع أجرته appliedAI، فإن الغالبية العظمى من المستثمرين يتجنبون الاستثمار في الشركات الناشئة المصنفة على أنها “عالية المخاطر”، تحديدًا بسبب التعقيدات المرتبطة بهذا التصنيف.

غيرت ChatGPT خطط الاتحاد الأوروبي

كان من المفترض أن تغلق المفوضية الأوروبية الوثيقة في 19 أبريل، لكن النقاش حول التعريفات المختلفة للأنظمة المبنية على الذكاء الاصطناعي وحالات استخدامها أخر إصدار المسودة النهائية.

علاوة على ذلك، أظهرت شركات التكنولوجيا أن ليس جميعها يتفق على النسخة الحالية من الوثيقة.

أكثر ما تسبب في التأخير هو التمييز بين نماذج الأساس والذكاء الاصطناعي للأغراض العامة.

مثال على نماذج الأساس للذكاء الاصطناعي هو ChatGPT من OpenAI: هذه الأنظمة تُدرّب باستخدام كميات كبيرة من البيانات ويمكنها توليد أي نوع من المخرجات.

يشمل الذكاء الاصطناعي للأغراض العامة تلك الأنظمة التي يمكن تكييفها مع حالات استخدام وقطاعات مختلفة.

يريد المنظمون الأوروبيون تنظيم نماذج الأساس بشكل صارم، لأنها قد تشكل مخاطر أكبر وتؤثر سلبًا على حياة الناس.

كيف تنظم الولايات المتحدة والصين الذكاء الاصطناعي

إذا نظرنا إلى كيفية تعامل المنظمين الأوروبيين مع الذكاء الاصطناعي، هناك شيء يبرز: يبدو أن المنظمين أقل استعدادًا للتعاون.

في الولايات المتحدة، على سبيل المثال، بحثت إدارة بايدن عن تعليقات عامة حول سلامة أنظمة مثل ChatGPT، قبل تصميم إطار تنظيمي محتمل.

أما في الصين، فالحكومة تنظم الذكاء الاصطناعي وجمع البيانات منذ سنوات، وقلقها الرئيسي لا يزال الاستقرار الاجتماعي.

حتى الآن، يبدو أن المملكة المتحدة في وضع جيد في تنظيم الذكاء الاصطناعي، حيث اتبعت نهجًا “خفيفًا” — لكن من المعروف أن المملكة المتحدة تسعى لتصبح رائدة في تبني الذكاء الاصطناعي والتكنولوجيا المالية.

التكنولوجيا المالية ولائحة الذكاء الاصطناعي

عندما يتعلق الأمر بالشركات والشركات الناشئة التي تقدم خدمات مالية، فإن الوضع أكثر تعقيدًا.

في الواقع، إذا بقيت اللائحة على حالها، ستحتاج الشركات المالية الناشئة إلى الالتزام ليس فقط باللوائح المالية الحالية، بل أيضًا بهذا الإطار التنظيمي الجديد.

حقيقة أن تقييم الجدارة الائتمانية قد يُصنف على أنه حالة استخدام عالية المخاطر هو مجرد مثال على العبء الذي يجب أن تحمله شركات التكنولوجيا المالية، مما يمنعها من أن تكون مرنة كما كانت حتى الآن، لجمع الاستثمارات والبقاء تنافسية.

الخلاصة

كما أشار بيتر سارلين، المدير التنفيذي لشركة Silo AI، المشكلة ليست في التنظيم، بل في التنظيم السيئ.

كونه عامًا جدًا قد يضر بالابتكار وبجميع الشركات المشاركة في إنتاج وتوزيع واستخدام المنتجات والخدمات المبنية على الذكاء الاصطناعي.

إذا كان المستثمرون في الاتحاد الأوروبي سيشعرون بالقلق إزاء المخاطر المحتملة الناتجة عن تصنيف يقول إن شركة ناشئة أو شركة تقع ضمن فئة “عالية المخاطر”، فإن بيئة الذكاء الاصطناعي في الاتحاد الأوروبي قد تتأثر سلبًا، بينما تبحث الولايات المتحدة عن تعليقات عامة لتحسين تقنياتها، والصين لديها بالفعل رأي واضح حول كيفية تنظيم الذكاء الاصطناعي.

وفقًا لروبن روم، أحد مؤسسي شركة Apheris، أحد السيناريوهات المحتملة هو أن تنتقل الشركات الناشئة إلى الولايات المتحدة — بلد قد يخسر الكثير فيما يتعلق بالبلوكشين والعملات الرقمية، لكنه قد يفوز في سباق الذكاء الاصطناعي.


إذا كنت تريد معرفة المزيد عن التكنولوجيا المالية واكتشاف أخبار وفعاليات وآراء التكنولوجيا المالية، اشترك في النشرة الإخبارية FTW!

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت