البرلمان الأوروبي يوافق على مشروع قانون للذكاء الاصطناعي يطالب بالكشف عن حقوق الطبع والنشر لبيانات التدريب على الذكاء الاصطناعي

المصدر: الورقة

المراسل فانغ شياو

سيُطلب من موردي النماذج الأساسية الإعلان عما إذا كانوا يستخدمون مواد محمية بحقوق الطبع والنشر لتدريب الذكاء الاصطناعي. بالنسبة لشركات التكنولوجيا مثل Google و Microsoft ، قد تصل الغرامات إلى مليارات الدولارات بسبب الانتهاكات.

• الخطوة التالية هي المفاوضات الثلاثية التي تضم الدول الأعضاء والبرلمانات والمفوضية الأوروبية. أحد مجالات الخلاف الرئيسية هو استخدام التعرف على الوجه. صوّت البرلمان الأوروبي على حظر استخدام تقنية التعرف على الوجه في الوقت الفعلي ، لكن تظل هناك أسئلة حول ما إذا كان ينبغي السماح بالإعفاءات لأغراض الأمن القومي وغيرها من أغراض إنفاذ القانون.

في 14 يونيو ، بالتوقيت المحلي ، في الجلسة العامة للبرلمان الأوروبي المنعقدة في ستراسبورغ ، فرنسا ، شارك الأعضاء في اجتماع التصويت على "مشروع قانون الذكاء الاصطناعي".

في 14 يونيو ، بالتوقيت المحلي ، اتخذ "قانون الذكاء الاصطناعي (قانون الذكاء الاصطناعي) التابع للاتحاد الأوروبي" خطوة مهمة نحو أن يصبح قانونًا: صوت البرلمان الأوروبي لتمرير مشروع القانون ، وحظر التعرف على الوجه في الوقت الفعلي وفرض قيودًا على أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT. تم تقديم متطلبات شفافية جديدة.

سيدخل مشروع قانون الذكاء الاصطناعي الآن المراحل النهائية قبل إطلاق اللوائح في الاتحاد الأوروبي. سيحاول المسؤولون الوصول إلى حل وسط بشأن مشروع القانون مع السلطة التنفيذية في الاتحاد الأوروبي والدول الأعضاء ، حيث لا تزال هناك خلافات. يجب أن تكتمل العملية التشريعية في يناير إذا كان القانون سيدخل حيز التنفيذ قبل انتخابات الاتحاد الأوروبي العام المقبل.

قال دانيال لوفر ، كبير محللي السياسة الذي يركز على الذكاء الاصطناعي في مكتب بروكسل التابع لـ Access Now ، لـ TIME: "هذه اللحظة مهمة للغاية". عالم."

تقترح نسخة القانون التي وافق عليها الاتحاد الأوروبي أن أي ذكاء اصطناعي يتم تطبيقه على حالات الاستخدام "عالية الخطورة" مثل التوظيف ومراقبة الحدود والتعليم يجب أن تمتثل لسلسلة من المتطلبات الأمنية ، بما في ذلك تقييم المخاطر ، وضمان الشفافية وتقديم التسجيل. لن يعتبر مشروع القانون تلقائيًا الذكاء الاصطناعي "للأغراض العامة" مثل ChatGPT عالي الخطورة ، ولكنه سيفرض متطلبات الشفافية وتقييم المخاطر على "النماذج الأساسية" أو أنظمة الذكاء الاصطناعي القوية المدربة على كميات هائلة من البيانات. على سبيل المثال ، سيُطلب من موردي النماذج الأساسية ، بما في ذلك OpenAI و Google و Microsoft ، الإعلان عما إذا كانوا يستخدمون مواد محمية بحقوق الطبع والنشر لتدريب الذكاء الاصطناعي. ومع ذلك ، لا يوجد شرط مماثل للإعلان عما إذا كانت البيانات الشخصية تُستخدم أثناء التدريب.

** كيف تعمل هذه القواعد؟ **

تم اقتراح "قانون الذكاء الاصطناعي" الخاص بالاتحاد الأوروبي لأول مرة في عام 2021 ، وسيتم تطبيقه على أي منتج أو خدمة تستخدم أنظمة الذكاء الاصطناعي.

يصنف مشروع القانون أنظمة الذكاء الاصطناعي على أساس 4 مستويات من المخاطر ، من الحد الأدنى إلى غير المقبول. ستواجه التطبيقات عالية المخاطر ، مثل التوظيف والتكنولوجيا التي تستهدف الأطفال ، متطلبات أكثر صرامة ، بما في ذلك مزيد من الشفافية واستخدام البيانات الدقيقة.

يتمثل أحد الأهداف الرئيسية للاتحاد الأوروبي في الحماية من أي تهديد للصحة والسلامة يمثله الذكاء الاصطناعي ، وحماية الحقوق والقيم الأساسية.

وهذا يعني أن استخدامات معينة للذكاء الاصطناعي محظورة تمامًا ، مثل أنظمة "التقييم الاجتماعي" التي تحكم على الأشخاص بناءً على سلوكهم ، وأنظمة الذكاء الاصطناعي التي تستغل الفئات الضعيفة (بما في ذلك الأطفال) أو تستخدم التلاعب اللاواعي الذي قد يتسبب في ضرر ، مثل تشجيع السلوك الخطير التفاعلي أداة الحوار. كما سيتم حظر أدوات الشرطة التنبؤية المستخدمة للتنبؤ بمن يرتكب الجرائم.

بالإضافة إلى ذلك ، ستواجه أنظمة الذكاء الاصطناعي المستخدمة في فئات مثل التوظيف والتعليم التي تؤثر على مسار حياة الشخص متطلبات صارمة ، مثل الشفافية أمام المستخدمين واتخاذ خطوات لتقييم وتقليل مخاطر التحيز الذي تشكله الخوارزميات.

قالت المفوضية الأوروبية إن معظم أنظمة الذكاء الاصطناعي ، مثل ألعاب الفيديو أو فلاتر البريد العشوائي ، تندرج ضمن فئة المخاطر المنخفضة أو الخالية من المخاطر.

أحد مجالات الخلاف الرئيسية هو استخدام التعرف على الوجه. صوّت البرلمان الأوروبي على حظر استخدام تقنية التعرف على الوجه في الوقت الفعلي ، لكن تظل هناك أسئلة حول ما إذا كان ينبغي السماح بالإعفاءات لأغراض الأمن القومي وغيرها من أغراض إنفاذ القانون. هناك قاعدة أخرى تحظر على الشركات كشط البيانات البيومترية من وسائل التواصل الاجتماعي لبناء قواعد بيانات.

في نفس اليوم ، حاولت مجموعة من المشرعين اليمينيين في البرلمان الأوروبي في اللحظة الأخيرة إلغاء حظر التعرف على الوجه في الوقت الفعلي الذي اقترحه مشروع القانون ، لكن المشرعين رفضوه.

سيعتمد تنفيذ القواعد على الدول الأعضاء في الاتحاد الأوروبي البالغ عددها 27 دولة. قد يجبر المنظمون الشركات على سحب التطبيقات من السوق. في الحالات القصوى ، يمكن أن تؤدي الانتهاكات إلى غرامات تصل إلى 30 مليون يورو (حوالي 33 مليون دولار) أو 6 في المائة من الإيرادات العالمية السنوية للشركة ، وبالنسبة لشركات التكنولوجيا مثل Google و Microsoft ، يمكن أن تصل الغرامات إلى مليارات الدولارات.

ما هي العلاقة بين ** و ChatGPT؟ **

لم يذكر الإجراء الأولي لمشروع القانون سوى القليل عن برامج الدردشة الآلية ، ولم يتطلب سوى تصنيفها حتى يعرف المستخدمون أنهم يتفاعلون مع جهاز. أضاف المفاوضون لاحقًا أحكامًا لتغطية الذكاء الاصطناعي العام مثل ChatGPT ، مما يجعل التكنولوجيا تلبي بعضًا من نفس المتطلبات مثل الأنظمة عالية المخاطر.

إضافة رئيسية هي أن مشروع القانون يتطلب توثيقًا شاملاً لأي مادة محمية بحقوق الطبع والنشر تُستخدم لتدريب أنظمة الذكاء الاصطناعي على إنشاء نصوص وصور وفيديو وموسيقى مشابهة للأعمال البشرية. سيسمح هذا لمنشئي المحتوى بمعرفة ما إذا كانت منشورات المدونات أو الكتب الإلكترونية أو الأوراق العلمية أو الأغاني قد تم استخدامها لتدريب الخوارزميات التي تعمل على تشغيل أنظمة مثل ChatGPT. يمكنهم بعد ذلك تحديد ما إذا كان من الممكن نسخ عملهم وطلب التعويض.

يجادل بعض الخبراء القلقين بشأن المخاطر الأمنية التي تشكلها نماذج الذكاء الاصطناعي بأن مشروع القانون لا يضع قيودًا على قوة الحوسبة التي يمكن أن تستخدمها أنظمة الذكاء الاصطناعي. مع كل إصدار جديد ، يزداد مقدار الحساب المستخدم بواسطة نموذج لغة كبير مثل ChatGPT بشكل كبير ، مما سيحسن قدراته وأدائه بشكل كبير. "كلما زاد عدد الحسابات المستخدمة لتدريب نظام ذكاء اصطناعي ، زادت قوة الذكاء الاصطناعي. وكلما زادت القدرة ، زادت احتمالية المخاطرة والخطر." أندريا مي ، مدير الإستراتيجية والحوكمة في شركة بدء التشغيل الأمني بالذكاء الاصطناعي تخمين أندريا ميوتي قال لمجلة تايم.

أشار ميوتي إلى أنه من السهل نسبيًا على الباحثين قياس القوة الحاسوبية الإجمالية لنظام ما لأن الرقائق المستخدمة لتدريب معظم الذكاء الاصطناعي المتطورة هي مورد مادي.

** ما أهمية تنظيم الاتحاد الأوروبي؟ **

أشارت "تايم" إلى أن الاتحاد الأوروبي ليس لاعبًا مهمًا في تطوير الذكاء الاصطناعي المتطور. هذا الدور تلعبه الولايات المتحدة والصين ، لكن الاتحاد الأوروبي غالبًا ما يلعب دور تحديد المد. .

يقول الخبراء إن الحجم الهائل للسوق الموحدة للاتحاد الأوروبي ، التي تضم 450 مليون مستهلك ، يسهل على الشركات الامتثال ، بدلاً من تطوير منتجات مختلفة لمناطق مختلفة. من خلال وضع قواعد مشتركة للذكاء الاصطناعي ، يحاول الاتحاد الأوروبي أيضًا تنمية السوق من خلال غرس الثقة بين المستخدمين.

قال كريس شري ، الزميل الأول في لجنة الحريات المدنية الأيرلندية: "هذه لائحة قابلة للتنفيذ وحقيقة أن الشركات ستخضع للمساءلة أمر مهم" لأن أماكن مثل الولايات المتحدة وسنغافورة والمملكة المتحدة لم تقدم سوى "التوجيه والمشورة". قال كريس شريساك ، الرئيس التنفيذي للبلاد: "قد ترغب دول أخرى في تعديل ونسخ" قواعد الاتحاد الأوروبي.

كما تعمل بعض الدول الأخرى على تسريع وتيرة التنظيم. على سبيل المثال ، يخطط رئيس الوزراء البريطاني ريشي سوناك لعقد قمة عالمية حول أمن الذكاء الاصطناعي هذا الخريف. قال سوناك في مؤتمر تكنولوجي هذا الأسبوع: "أريد أن لا تكون المملكة المتحدة مجرد منزل فكري ، بل موطنًا جغرافيًا لتنظيم سلامة الذكاء الاصطناعي العالمي". ستجمع قمة المملكة المتحدة معًا "الأكاديميين والشركات والحكومة" ، والعمل معًا بشأن "الإطار متعدد الأطراف".

قالت فرانسين بينيت ، القائم بأعمال مدير معهد أدا لوفليس ، لصحيفة نيويورك تايمز: "من الصعب بالطبع تنظيم التقنيات سريعة التطور والمعاد توظيفها لأغراض أخرى لأن حتى الشركات التي تطور التكنولوجيا لا تعرف كيف ستسير الأمور. لكن سيكون بالتأكيد أسوأ بالنسبة لنا جميعًا إذا استمروا في العمل دون تنظيم مناسب ".

ومع ذلك ، تجادل رابطة صناعة الكمبيوتر والاتصالات بأن الاتحاد الأوروبي يجب أن يتجنب التنظيم الفضفاض الذي من شأنه أن يخنق الابتكار. قال بونيفاس دي تشامبريس ، مدير السياسة الأوروبية للوكالة ، "تحتاج قواعد الذكاء الاصطناعي الجديدة في أوروبا إلى معالجة المخاطر المحددة جيدًا بشكل فعال مع منح المطورين المرونة الكافية لتقديم تطبيقات الذكاء الاصطناعي لصالح الأوروبيين".

**ماذا بعد؟ **

قد يستغرق القانون سنوات حتى يدخل حيز التنفيذ. والخطوة التالية هي المحادثات الثلاثية التي تشمل الدول الأعضاء والبرلمان والمفوضية الأوروبية ، والتي قد تواجه المزيد من التغييرات قبل محاولة الاتفاق على الصياغة.

خلال المرحلة القادمة من الحوار الثلاثي ، من المتوقع أن يدعو مجلس أوروبا ، الذي يمثل حكومات الدول الأعضاء ، بقوة إلى استثناء أدوات الذكاء الاصطناعي التي تستخدمها قوات إنفاذ القانون وقوات الحدود من متطلبات الأنظمة "عالية المخاطر" ، وفقًا لما ذكره روفو.

من المتوقع أن يحصل مشروع القانون على الموافقة النهائية بحلول نهاية العام ، تليها فترة سماح للشركات والمؤسسات للتكيف ، عادة حوالي عامين. لكن براندو بينيفي ، العضو الإيطالي في البرلمان الأوروبي الذي يقود العمل على مشروع القانون ، قال إنهم سيدفعون باتجاه القواعد التي تسمح باعتماد أسرع للتقنيات سريعة النمو مثل الذكاء الاصطناعي التوليدي.

ولسد الثغرات قبل أن يدخل التشريع حيز التنفيذ ، تعمل أوروبا والولايات المتحدة على صياغة مدونة سلوك طوعية وعد المسؤولون في أواخر مايو بوضعها في غضون أسابيع ومن المحتمل توسيعها لتشمل "البلدان ذات التفكير المماثل".

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت
تداول العملات الرقمية في أي مكان وفي أي وقت
qrCode
امسح لتنزيل تطبيق Gate.io
المنتدى
بالعربية
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)